Biofilm
DefinitionUnter einem Biofilm versteht man...
Auf Oberflächen vorkommende Gemeinschaft aus Bakterien oder Pilzen, die in eine Schleimschicht eingebettet sind. Im Körper schützen sie sich so vor dem Immunsystem und vor Antibiotika. Biofilme spielen z. B. bei Zahnkaries eine Rolle und entstehen auf Implantaten und Kathetern. Wissenschaftler suchen nach Möglichkeiten, Biofilme aufzulösen, um schwere Infektionen zu verhindern.
DruckenPer Mail versenden Teilen