Show Less
Open access

Unsicherheit als Herausforderung für die Wissenschaft

Reflexionen aus Natur-, Sozial- und Geisteswissenschaften

Series:

Edited By Nina Janich and Lisa Rhein

Das Buch präsentiert eine disziplinäre Vielfalt an Perspektiven auf Unsicherheit in der Wissenschaft. Schwerpunkte sind Klimaforschung, Umweltwissenschaft und Technikfolgenabschätzung. Die Beiträge diskutieren Gründe und Folgen wissenschaftlicher Unsicherheit und einer entsprechenden Verantwortung der Wissenschaft. Vertreten sind Kommunikationswissenschaft, Linguistik, Philosophie, Politikwissenschaft, Soziologie und Volkswirtschaftslehre sowie Chemie und Klimawissenschaft.

Der Band dokumentiert die ungewöhnliche Kooperation zweier Schwerpunktprogramme der Deutschen Forschungsgemeinschaft – «Wissenschaft und Öffentlichkeit» und «Climate Engineering: Risks, Challenges, Opportunities?» –, die sich auf einer Tagung an der TU Darmstadt mit weiteren WissenschaftlerInnen zu Austausch und kritischer Reflexion getroffen haben.

Show Summary Details
Open access

Unsicherheit als zentrales Problem in der Risikobewertung für Chemikalien (Martin Scheringer)

Martin Scheringer (Brünn/Zürich)

Unsicherheit als zentrales Problem in der Risikobewertung für Chemikalien

Abstract: The risk assessment of chemicals is a scientific procedure that aims to determine the risks to human health and the environment that are associated with the use of commercially relevant chemicals. There are many uncertainties associated with the procedure. These uncertainties derive from the high number of chemicals on the market (several tens of thousands), a lack of data on chemical properties, erroneous and inaccurate chemical property data, bias in chemical property measurement methods, the huge variety of uses of chemicals in many consumer products and technical applications, the wide range of chemical properties such as vapor pressure, water solubility, degradation half-lives, toxicity and many others, and the wide range of possible adverse effects in humans and wildlife. Here different sources and types of uncertainty along with methods for dealing with the different types of uncertainty are presented. Overall, the uncertainties associated with the different elements of the chemical risk assessment procedure are substantial. It is essential that these uncertainties are better characterized in the future in order to make chemical risk assessment more rational and reliable.

Keywords: Industriechemikalien – Emissionsdaten – Stoffeigenschaften – Umweltverhalten – Persistenz – Bioakkumulation – Toxizität – „Datenbank-Unsicherheit“

1 Risikobewertung für Chemikalien: Vorgehensweise

Die Risikobewertung für Chemikalien ist ein Verfahren, in dem chemische Produkte im Hinblick auf ihre schädlichen Effekte für Mensch und Umwelt untersucht werden. Die Ergebnisse dieser Untersuchung bilden die Grundlage für die Regulierung chemischer Substanzen, die als Arzneimittel, Pflanzenschutzmittel, Biozide, Industriechemikalien usw. verwendet werden und somit kommerziell relevant sind (vgl. van Leeuwen/Vermeire 2007).

Das Verfahren fußt auf einer Erfassung verschiedener Arten von Daten: Ein erstes Element bilden die physikalisch-chemischen Substanzeigenschaften wie die Brennbarkeit, der Dampfdruck, die Wasserlöslichkeit etc., welche entweder nach standardisierten Verfahren gemessen oder aus der chemischen Struktur abgeschätzt werden können. Das zweite Element sind die toxischen Wirkungen einer Substanz, die sich in Testorganismen (in vivo) oder in-vitro-Testsystemen zeigen, und das dritte Element sind die Verwendungsmuster und Verwendungsmengen; diese beeinflussen (neben den chemischen Eigenschaften der betrachteten Sub←53 | 54→stanz), welche Exposition von Mensch und Umwelt zu erwarten ist. Aus allen diesen Elementen wird dann ermittelt, welche Konzentrationen der betrachteten Substanz als Folge einer bestimmten Verwendung, z. B. als Lösungsmittel, in verschiedenen Umweltkompartimenten (Luft, Wasser, Boden) zu erwarten sind, und ob diese Konzentrationen eine aus den toxikologischen Befunden abgeleitete Nichtwirkungs-Schwelle überschreiten. Wenn sich abzeichnet, dass die Nichtwirkungs-Schwelle überschritten werden könnte, müssen letztendlich Maßnahmen zur Risikominderung getroffen werden (vgl. van Leeuwen/Vermeire 2007).

Das Bewertungsverfahren existiert in dieser Grundform in vielen Ländern und für verschiedene Arten von Chemikalien; im Folgenden wird vor allem auf den Kontext der Europäischen Union (EU) Bezug genommen. Die Entwicklung von Testmethoden für die diversen physikalischen, chemischen und toxikologischen Eigenschaften, die im Verfahren benötigt werden, wird seit über 40 Jahren von der Organisation für Wirtschaftliche Zusammenarbeit und Entwicklung (OECD) koordiniert (vgl. OECD 2016). Das Verfahren befindet sich seit den 1980er-Jahren in einer kontinuierlichen Entwicklung und wurde mehrfach stark überarbeitet. Der Grund dafür liegt darin, dass die zu bewertenden Chemikalien eine große Vielfalt an unterschiedlichen Eigenschaften haben, welche sich nicht mit einem abschließend festgelegten Raster von Testverfahren erfassen lassen, und dass es sehr viele Substanzen sind, die bewertet werden müssen, nämlich mindestens einige zehntausend (ECHA 2018a, 2018b). Wichtige Meilensteine bei der Weiterentwicklung des Verfahrens waren die Richtlinie und die Verordnung für die Risikobewertung alter und neuer Stoffe, welche 1991 in Kraft traten (vgl. Richtlinie 93/67/EEC und Verordnung (EG) 1488/94); für Pflanzenschutzmittel die Richtlinie 91/414 EEC sowie die Verordnung (EG) 1107/2009, welche die Richtlinie 91/414 EEC ersetzt hat, sowie REACH, eine umfassende neue Verordnung der EU für Industriechemikalien, welche 2007 in Kraft trat (Verordnung (EG) 1907/2006). REACH steht für Registration, Evaluation, Authorisation and Restriction of Chemicals (Registrierung, Bewertung, Zulassung und Beschränkung von Chemikalien).

Das Bewertungsverfahren hat sich von Beginn an im Spannungsfeld zwischen Wissenschaft und echter Grundlagenforschung einerseits und Routine/Vollzug andererseits befunden, und damit wird das Thema der Unsicherheit relevant. Wie erwähnt, kann sich das Verfahren nämlich nicht auf eine abschließend definierte Vorgehensweise stützen, welche sich von Behörden und Auftragslaboren routinemäßig durchführen ließe, sondern es muss fortwährend weiterentwickelt werden. Der Grund dafür ist, dass die Anzahl der Substanzen, die zu prüfen sind, so groß←54 | 55→ ist, dass eine umfassende Untersuchung aller Substanzen nicht möglich ist. Es handelt sich um mehrere 10 000 verschiedene Substanzen, und hinzu kommt, dass für jede einzelne Substanz mehrere oder viele Verwendungsweisen zu prüfen sind, dass die Verteilungsmuster in der Umwelt sehr komplex sein können und dass es eine im Prinzip unbegrenzte Anzahl von schädlichen Effekten gibt, die zu prüfen wären. Schließlich kommt hinzu, dass jede Substanz für sich untersucht wird, was dazu führt, dass das Zusammenwirken verschiedener Substanzen in der Umwelt oder im menschlichen Körper im Rahmen des Bewertungsverfahrens systematisch ignoriert wird und die resultierenden Risiken systematisch unterschätzt werden. Hierin liegt der zentrale Punkt dieses Beitrags: Unsicherheiten sind ganz grundlegend mit dem Bewertungsverfahren für Chemikalien verbunden, und die Erfassung und Charakterisierung von Unsicherheiten muss als zentraler Bestandteil des Verfahrens angesehen werden.1

Illustrieren lässt sich die Problematik von Unsicherheiten im Bewertungsverfahren für Chemikalien mit der Situation gegen Ende der 1990er-Jahre: Zu dieser Zeit waren die sogenannten Industriechemikalien (dies sind im Wesentlichen alle Substanzen, die nicht als Arzneimittel, Pestizide oder Biozide verwendet werden, z. B. Lösungsmittel, Flammschutzmittel, Weichmacher für Kunststoffe, Imprägniermittel, Farbstoffe, u. v. a. m.) noch in „Altstoffe“ und „Neustoffe“ eingeteilt. Altstoffe waren Substanzen, die bereits vor 1981 auf dem Markt waren, Neustoffe solche, die nach 1981 auf den Markt kamen. Für die Risikobewertung der Altstoffe waren nicht die Hersteller, sondern die Behörden der EU-Mitgliedstaaten verantwortlich; in Deutschland unterstützte das Beratergremium für umweltrelevante Altstoffe (BUA) die Regierung bei der Altstoffbewertung, und darüber hinaus betrieb auch die OECD ein Altstoffprogramm. Ende der 1990er-Jahre waren von den ca. 100 000 Altstoffen (Neustoffe gab es nur knapp 6 000) auf EU-Ebene erst weniger als 20 offiziell bewertet (vgl. EEA 1998). Die Altstoffbewertung war somit festgefahren und die Situation war eigentlich vor allem durch Nichtwissen und←55 | 56→ nicht durch Unsicherheit gekennzeichnet (vgl. Scheringer 2013). Daher wurde ein grundlegender Neuansatz für nötig gehalten, und dieser wurde im sogenannten Weißbuch für REACH präsentiert (vgl. EC 2001). REACH trat dann im Jahr 2007 in Kraft und kann als ein großer Fortschritt angesehen werden, da es von den Herstellern und Importeuren von Chemikalien verlangt, dass diese die Substanzen, welche sie auf dem Markt behalten wollen, selbst testen (oder testen lassen) und dann die erforderlichen Daten der Europäischen Chemikalienagentur (ECHA) übermitteln. Dies drückt sich im REACH-Motto, „No data, no market“, aus. Dies soll dazu führen, dass nur noch Substanzen auf dem Markt gehalten werden, deren technische und ökonomische Bedeutung groß genug ist, um die Testung zu rechtfertigen, während alle anderen Substanzen vom Markt verschwinden.

Eine Hauptaussage des vorliegenden Beitrags ist, dass jedoch auch REACH das Problem nicht wirklich löst, da die Anzahl der zu untersuchenden Substanzen immer noch zu hoch ist. Es werden nun sehr viele Daten eingereicht, welche nicht korrekt sind und die dadurch die Qualität der Stoffdatenbank der ECHA erheblich beeinträchtigen (vgl. Stieger et al. 2014; Scheringer 2013; Springer et al. 2015; siehe auch unten Abschnitt 3).

2 Unsicherheiten bei der Bewertung einer einzelnen Substanz

Die mit der Risikobewertung verbundenen Unsicherheiten lassen sich gliedern, indem man von den Emissionsdaten zu den Stoffeigenschaften und dann zum Umweltverhalten (sowie den toxischen Wirkungen, hier nicht behandelt) übergeht.

Unsicherheiten bei Emissionsdaten: Historisch sind Insektizide wie Dichlordiphenyltrichlorethan (DDT) und Industriechemikalien wie polychlorierte Biphenyle (PCB) gute Fallbeispiele, da sie einerseits ausführlich untersucht worden sind und andererseits auch heute immer noch relevant sind (vgl. Scheringer 2012). DDT steht seit Rachel Carsons Buch „Silent Spring“ (1962) als paradigmatische Substanz für das Problem der Umweltverschmutzung durch Chemikalien. Nach massivem Einsatz von DDT in den 1950er- und 1960er-Jahren erkannte man, dass das DDT überall in der Umwelt zu finden war und nicht einfach wieder verschwand. Für eine Substanz von großer chemischer Stabilität („Persistenz“) ist das eigentlich kein erstaunlicher Befund, aber Carsons Darstellung des Problems löste dennoch großes Erstaunen (und heftige Diskussionen) aus, und bald kam es zu ersten Verboten der Verwendung von DDT in der Landwirtschaft (gegen krankheitsübertragende Insekten ist die Verwendung von DDT bis heute möglich).←56 | 57→

Verwendungs- und Emissionsdaten zu DDT und ähnlichen Pestiziden zeigen, dass die Unsicherheit der Emissionsmengen typischerweise einen Faktor drei jeweils nach oben und nach unten beträgt. Wenn fallspezifische Emissionsdaten bekannt sind, ist die Unsicherheit kleiner. Bei Industriechemikalien mit äußerst zahlreichen und zugleich sehr unterschiedlichen Anwendungen wie den polychlorierten Biphenylen sind die Unsicherheiten deutlich größer; hier ist es ein Faktor von zehn, den man um den Schätzwert der Emission herumlegen muss, um die Unsicherheit abzubilden, wodurch ein Unsicherheitsband von 100 entsteht (vgl. Breivik et al. 2007). Für perfluorierte Carboxylsäuren (PFCA), die u. a. bei der Herstellung von Teflon und von Imprägniermitteln für Bekleidung, Teppiche, Nahrungsmittelverpackungen etc. verwendet werden, ist die Unsicherheit kleiner; Wang et al. (2014) haben einen Faktor von acht zwischen einem Szenario mit tiefen Emissionsabschätzungen und einem Szenario mit hohen Emissionsabschätzungen ermittelt.

Unsicherheiten bei Stoffeigenschaften: Ein sehr illustratives Beispiel ist hier der Verteilungskoeffizient zwischen Oktanol und Wasser (Kow). Der Kow ist in der Stoffbewertung von großer Bedeutung, weil er die relative Affinität einer Substanz für Wasser und für organisches Material (Böden, Vegetation, Fettgewebe in Organismen, Muttermilch) beschreibt. Er ist eine Basisgröße, die für jede Substanz erhoben und bei der Registrierung unter REACH eingereicht werden muss. Bei Substanzen mit geringer Wasserlöslichkeit ist der Kow schwer zu messen, weil dann die Konzentration in der Wasserphase sehr niedrig ist. Beispielsweise ist für das Insektizid DDT die Konzentration im Wasser um ca. einen Faktor von einer Million tiefer als im Oktanol. Pontolillo/Eganhouse (2001) haben für das Insektizid DDT alle überhaupt verfügbaren Kow-Werte zusammengestellt. Dabei hat sich ergeben, dass die Werte erstaunlich stark streuen, nämlich über ca. vier Größenordnungen, also einen Faktor 10 000. Dies ist ein irritierender Befund, da der Kow eine wohldefinierte Stoffeigenschaft ist, die unter standardisierten Bedingungen erhoben wird und in die keine biologische Variabilität (wie sie bei toxikologischen Untersuchungen auftritt) einfließt. Es handelt sich also um reine Messungenauigkeiten. Bei anderen Stoffeigenschaften wie den Halbwertszeiten des biologischen Abbaus können ähnlich große Unsicherheiten auftreten. Für die Stoffbewertung heißt dies, dass für alle Eigenschaften einer Substanz die Unsicherheit der vorhandenen Messwerte erhoben werden und in die Beurteilung einbezogen werden muss. Die Unsicherheiten sind dabei deutlich größer als z. B. Abweichungen von einigen Prozent; sie erreichen einen Faktor 10 und mehr in jede Richtung.←57 | 58→

Unsicherheiten bezüglich des Umweltverhaltens: Nach der Charakterisierung von Stoffeigenschaften und Emissionsdaten ist die Verteilung in der Umwelt der nächste Schritt. Um die Verteilung einer Chemikalie in der Umwelt zu verstehen und ihre Konzentrationen in den verschiedenen Umweltkompartimenten zu bestimmen, verwendet man Modelle, welche die Stoffflüsse von Chemikalien zwischen Boden, Wasser und Luft berechnen und so eine Gesamtbilanz für die Substanz in einem System aus Boden, Wasser und Luft liefern (vgl. Scheringer 2015). Beispielsweise wird in einem solchen Modell berechnet, wie viel Substanz vom Boden in die Luft verdampft und wie viel Substanz mit dem Regen wieder aus der Luft ausgewaschen und auf dem Boden deponiert wird. Dafür müssen der Dampfdruck und die Wasserlöslichkeit der Substanz (sowie weitere Stoffeigenschaften) als Eingabedaten in das Modell eingespeist werden. Sofern diese Daten mit einer quantifizierbaren Unsicherheit behaftet sind (Unsicherheitsbänder, siehe oben), können auch diese Bandbreiten in das Modell eingespeist werden. Für die Unsicherheiten bedeutet dies, dass sich die Unsicherheiten aller Stoffeigenschaften durch das Modell hindurch fortpflanzen, also auf die vom Modell berechneten Konzentrationen durchschlagen. Dabei reagiert das Modell allerdings mit unterschiedlichen Sensitivitäten gegenüber verschiedenen Eingabeparametern: Eine Unsicherheit in den Emissionsmengen überträgt sich direkt auf die berechneten Konzentrationen, wohingegen Unsicherheiten z. B. in der Regenrate oder der Windgeschwindigkeit nur schwächer auf die berechnete Konzentration wirken. Im Einzelnen hängen die Sensitivitäten eines solchen Modells gegenüber verschiedenen Parametern von der Struktur des Modells und der betrachteten Substanz ab.

Somit lässt sich festhalten: Methoden für die Erfassung und quantitative Behandlung von Unsicherheiten von den Emissionen bis zu den in der Umwelt zu erwartenden Konzentrationen sind etabliert, aber damit diese Methoden greifen, muss die Unsicherheit der Eingangsdaten quantifiziert, also ihrerseits recht gut charakterisiert sein. Ein Beispiel ist das Insektizid Endosulfan, für welches Becker et al. (2011) den hier skizzierten Prozess von den Emissionsdaten über die Stoffeigenschaften bis hin zu den in der Umwelt zu erwartenden Konzentrationen einschließlich aller Unsicherheiten durchgearbeitet haben. Auf der Grundlage der von Becker et al. (2011) erhaltenen Ergebnisse konnte dann das POP Review Committee der Stockholm-Konvention beschließen, dass Endosulfan die Eigenschaften eines persistenten organischen Schadstoffes im Sinne der Konvention erfüllt, und damit war die Grundlage für das weltweite Verbot von Endosulfan im Jahr 2011 gelegt. Trotz der mit allen Elementen der Bewertung verbundenen Unsicherheiten ergeben sich in solch einem recht gut dokumentierten Fall am←58 | 59→ Ende des Bewertungsverfahrens belastbare Aussagen, die auch als politische Entscheidungsgrundlagen geeignet sind (vgl. Scheringer 2015). Als Fazit ergibt sich: Selbst für Chemikalien, die seit Längerem untersucht werden, bestehen einerseits noch erhebliche Unsicherheiten und Wissenslücken auf allen Stufen des Verfahrens, andererseits lassen sich diese Unsicherheiten in Form von Bandbreiten quantitativ abschätzen und damit für politische Entscheidungsprozesse „bändigen“ und handhaben (Beispiel Endosulfan).

3 Ein neues Problem: Datenbank-Unsicherheit

Unter REACH entsteht zurzeit ein neues, so nicht erwartetes Problem, welches eine neue Qualität von Unsicherheit hervorbringt, die hier als „Datenbank-Unsicherheit“ bezeichnet werden soll. Die mit den Registrierungsdossiers bei der ECHA eingereichten Stoffdaten werden in einer von der ECHA verwalteten Datenbank abgelegt. Wie sich nun, während kontinuierlich mehr und mehr Daten in die Datenbank eingespeist werden, zeigt, ist die Datenbank mit einer unbekannten Menge falscher Daten durchsetzt. Das Problem geht über die übliche Problematik eines (sehr) kleinen Anteils an falschen Datenpunkten hinaus, der bei großen Datenbeständen immer anfällt. Vielmehr handelt es sich um eine Kombination aus einerseits erheblichen Datenlücken und andererseits systematischen Messfehlern, die bei vielen Substanzen in ähnlicher Weise auftreten. Die Datenlücken werden dokumentiert in einem Bericht von Springer et al. (2015); untersucht wurden 1814 Dossiers von Substanzen mit einem Produktionsvolumen von über 1000 t/a (sog. high-production-volume chemicals). Von diesen 1814 Dossiers entsprach nur ein einziges (!) den Vorgaben, 58 % waren mangelhaft, und bei 42 % war die Datenlage unklar und es ließ sich im Rahmen einer standardisierten web-basierten Überprüfung nicht entscheiden, ob ein Mangel vorliegt oder nicht.

Das Problem der Messfehler haben Stieger et al. (2014) anhand einer Gruppe bromierter Flammschutzmittel illustriert. Zwei der zahlreichen Datenpunkte, die mit einem Dossier eingereicht werden müssen, sind der Oktanol-Wasser-Verteilungskoeffizient (Kow) und die aquatische Toxizität, ausgedrückt als LC50 (Konzentration im Wasser, bei der 50 % der Testorganismen sterben). Die Analyse von Stieger et al. (2014) zeigt, dass der Kow häufig zu tief ist, oft um mehrere Größenordnungen2, und dass für die LC50 häufig zu hohe Werte angegeben werden, also eine zu geringe Toxizität ausgewiesen wird. Ursachen für diese Messfehler sind beim Kow, dass insbesondere hohe Kow-Werte schwer zu messen sind, weil←59 | 60→ sie eine analytische Bestimmung der Substanzkonzentration in Wasser erfordern und weil bei hohem Kow die Konzentration im Wasser tief ist (vgl. Pontolillo/Eganhouse 2001). In vielen Fällen scheint die Nachweisgrenze des Messverfahrens nicht tief genug zu sein, um solche niedrigen Konzentrationen bestimmen zu können. Dadurch werden zu hohe Konzentrationen im Wasser und in der Folge zu tiefe Kow-Werte angegeben. Diese Beobachtung wird dadurch ergänzt, dass Stieger et al. (2014) keine Kow-Werte gefunden haben, die zu hoch liegen. Bei der LC50 für Fische oder Flusskrebse treten mehrere Probleme gemeinsam auf. Ein Faktor ist auch hier eine geringe Wasserlöslichkeit, weil bei tiefer Wasserlöslichkeit die Konzentration im Testsystem schwer einzustellen und zu kontrollieren ist. Immer wieder werden sogar nur nominale Konzentrationen angegeben, d. h. die Menge der Substanz, die dem Testsystem zugefügt wurde, wobei dies oft mehr ist, als im Wasser gelöst werden kann. Nominale Konzentrationen sind somit physikalisch und biologisch sinnlos. Ein weiteres Problem ist, dass bei tiefer Wasserlöslichkeit die Aufnahme in den Organismus langsam abläuft, so dass bei den primär geforderten Tests auf akute Toxizität die Testdauer zu kurz sein kann, um toxische Effekte sichtbar werden zu lassen.

Das Problem der Datenbank-Unsicherheit ergibt sich nun, weil die ECHA zum einen keine genügende Kapazität hat, um alle Daten auf ihre inhaltliche Korrektheit zu prüfen, und weil sie keine Handhabe hat, als fehlerhaft erkannte Daten zurückzuweisen bzw. bei Substanzen mit fehlerhaften Dossiers die Registrierung zu verweigern (vgl. UBA 2012). Dadurch akkumulieren sich fehlerhafte Daten in einem zunehmenden, insgesamt jedoch nicht genau bekannten Umfang.

Unter REACH besteht nun also eine Ambivalenz, welche zu „fragiler Evidenz“ (Scheringer 2013) führt: Einerseits sind viel mehr Daten zu Industriechemikalien verfügbar als je zu vor, andererseits ist der Datenbestand als ganzer nicht verlässlich, weil fehlerhafte Daten nicht markiert sind und daher nicht ohne weiteres erkennbar ist, ob ein Datenpunkt korrekt ist oder nicht. Wenn Anwender Daten aus der Datenbank abrufen, ist nicht klar, ob ein Datum falsch oder korrekt ist, und zweitens ist ebenfalls unklar, wie stark ein Datum allenfalls vom korrekten Wert abweicht. Der Inhalt der Datenbank ist sozusagen „kontaminiert“ mit einer systemischen Unsicherheit. Angesichts der Größe des Datenbestandes (im Februar 2018 gab es 17 885 registrierte Substanzen, wobei für jede Substanz zahlreiche Datenpunkte vorhanden sind) ließe sich diese Datenbank-Unsicherheit nur mit sehr großem Aufwand identifizieren und vermindern. Zurzeit gibt es seitens der ECHA keine Hinweise, wie das Problem der Datenbank-Unsicherheit angegangen werden soll. Immerhin wurde im März 2017, also zehn Jahre nach←60 | 61→ dem Inkrafttreten von REACH, eine Möglichkeit geschaffen, eingereichte Stoffdaten von ca. 15 000 unter REACH registrierten Substanzen herunterzuladen (vgl. ECHA 2018c). Dieser Schritt war lange überfällig, denn größere Datensätze wie z. B. die Kow-Werte oder der Biokonzentrationsfaktor sämtlicher bisher unter REACH registrierten Substanzen sind erforderlich, um einzelne Datenpunkte in den Kontext der Werte für andere, strukturell ähnliche Substanzen stellen und auf diese Weise fehlerhafte Werte identifizieren zu können (Stieger et al. 2014 haben dies für den Kow von bromierten Flammschutzmitteln exemplarisch durchgeführt).

In diesem Zusammenhang ergeben sich interessante Folgefragen hinsichtlich der Qualität von (sehr) großen Datenbeständen, die (sehr) schnell aufgebaut werden (big data).

4 Sind die Unsicherheiten zu groß?

Auf naturwissenschaftlicher Seite gibt es einen weiteren Effekt, der bei der Risikobewertung von Chemikalien erschwerend wirkt: Ab einem gewissen Ausmaß von Unsicherheit wird unter Naturwissenschaftlerinnen und -wissenschaftlern häufig die Ansicht vertreten, dass man ein Problem nicht mehr sinnvoll bearbeiten könne. Gerade bei der Risikobewertung von Chemikalien, bei der die empirische Grundlage aufgrund der fehlenden Daten tatsächlich erstaunlich schwach ist, wird immer wieder eingewendet, dass die Unsicherheiten zu groß seien, um „sinnvolle“ oder „belastbare“ Aussagen zu erhalten. Diese Sichtweise führt dazu, dass Probleme von Datenbedarf und Datenqualität in der Stoffbewertung, die erhebliche praktische und politische Bedeutung haben, der wissenschaftlichen Bearbeitung verschlossen bleiben.3

Auch bei einem recht gut dokumentierten Fall wie der globalen Verteilung von Endosulfan (siehe Abschnitt 2) treten schnell Bandbreiten in der Größe von einem Faktor 10–30 auf, allerdings stammt bereits ein Faktor von knapp 10 allein aus der Unsicherheit der Emissionen (vgl. Becker et al. 2011). Wenn die Datenlage schlechter ist (was oft der Fall ist), werden die Unsicherheiten noch größer und es kann durchaus sein, dass man auf die Bestimmung von Bandbreiten um←61 | 62→ einen mittleren Wert herum verzichten muss und z. B. nur noch Minimum- und Maximum-Szenarien abschätzen kann, um das gesuchte Resultat grob einzugrenzen (vgl. Morgan 2001). Dieses Beispiel zeigt jedoch auch, dass natürlich auch Fragestellungen mit großen Unsicherheiten nicht unbearbeitbar sind. Vielmehr müssen bei so großen Unsicherheiten die Methoden und die Zielsetzungen angepasst werden: Die Zielsetzung kann nicht mehr die möglichst genaue quantitative Bestimmung eines Wertes (wie z. B. der Konzentration einer Substanz an einem gewissen Ort zu einer gewissen Zeit) sein. Zielsetzung ist dann vielmehr zunächst nur die Bestimmung von plausiblen Minimal- und Maximalwerten der gesuchten Größe sowie die Identifizierung von Faktoren, die die gesuchte Größe beeinflussen; weiterhin die Identifizierung von „Zwischenproblemen“, deren Beantwortung auf dem Weg zur gesuchten Größe weiterhilft, und schließlich die Bestimmung des methodischen Bedarfs, also die Benennung dessen, was neu zu entwickelnde Methoden leisten müssen, wenn man der gesuchten Größe näherkommen will. Auf der Methodenseite kann dann statt einer quantitativen Fehlerfortpflanzung wie z. B. durch sogenannte „Monte-Carlo-Methoden“ (vgl. MacLeod et al. 2002) eine „Bounding Analysis“ (Morgan 2001) durchgeführt werden.

Ein weiterer Punkt, bei dem im Gebiet der Stoffbewertung Umdenken gefordert ist, betrifft das Gewicht, welches gemessenen Werten zugesprochen wird. Aus diversen Gründen (historisch, methodisch) werden in den Naturwissenschaften gemessene Werte, also unmittelbar empirische Befunde, als besonders aussagekräftig angesehen. Bei der Stoffbewertung gibt es jedoch immer wieder Zielgrößen, für welche die bestehenden Messverfahren nicht genügend genau sind oder nicht den tatsächlich relevanten Aspekt messen. Beispiele sind der Kow (vgl. Pontolillo/Eganhouse 2001), die LC50 für aquatische Toxizität (vgl. Mayer/Reichenberg 2006), der Biokonzentrationsfaktor (BCF) (vgl. Jonker/van der Heijden 2007) und auch die Halbwertszeit für biologischen Abbau (vgl. Ng et al. 2011). Für diese Größen gibt es jedoch neben der Messung auch die Möglichkeit, sie aus der chemischen Struktur einer Substanz abzuschätzen (vgl. van Leeuwen/Vermeire 2007: Kap. 9 und 10; US EPA 2016).

Es ist ein zentrales Erkenntnisziel der Chemie, Zusammenhänge zwischen der Struktur und den Eigenschaften chemischer Substanzen zu etablieren; diese Zusammenhänge gehören zum Kern des chemischen Wissens überhaupt und fließen in die genannten Abschätzmethoden ein. Für Abschätzmethoden bestehen natürlich immer Grenzen ihrer Anwendbarkeit (die sogenannte Anwendungsdomäne, application domain); außerhalb dieser Domäne sind mit einer Abschätzmethode gewonnene Resultate inkorrekt oder zumindest unsicher (wobei das Ausmaß der Unsicherheit nicht bekannt ist), aber innerhalb der Anwendungsdomäne liefern←62 | 63→ solche Struktur-Eigenschafts- oder Struktur-Aktivitäts-Beziehungen durchaus valide Resultate, deren Unsicherheit quantifiziert werden kann. Somit bestehen für einige in der Stoffbewertung zentrale Größen durchaus Alternativen in Form von Abschätzmethoden. Diese sind der direkten Messung vorzuziehen, wenn die derzeitig verfügbare Messmethode unzureichend ist und Artefakte erzeugt, hingegen das theoretische Verständnis gut genug ist, um brauchbare Schätzwerte zu liefern. Dies war die Vorgehensweise von Strempel et al. (2012) bei der Untersuchung der sogenannten PBT-Eigenschaften (Persistenz, Bioakkumulation, Toxizität) von 95 000 Chemikalien. Gemessene Werte für die hierbei benötigten Daten (Halbwertszeiten des biologischen Abbaus, Biokonzentrationsfaktor, aquatische Toxizität) waren nur für weniger als 3 000 von den 95 000 untersuchten Substanzen vorhanden. Die Vorgehensweise von Strempel et al. (2012) hat kontroverse Diskussionen über die Frage ausgelöst, ob eine zu großen Teilen auf abgeschätzten Daten beruhende Untersuchung dieser Größenordnung überhaupt als valide und als „wissenschaftlich“ gelten kann.

Wenn in solchen Diskussionen auf einer Priorität gemessener Daten insistiert und die Relevanz und Validität abgeschätzter Daten bestritten wird, hat dies zwei Aspekte: Von einem methodischen Standpunkt aus bedeutet diese Haltung, dass zentrale Elemente des etablierten chemischen Wissens ignoriert werden (siehe oben). Es geht in der Stoffbewertung jedoch bei weitem nicht nur um methodische Fragen, sondern auch um Machtfragen und ökonomische Aspekte. Daher führen Vertreterinnen und Vertreter der chemischen Industrie auch in Fällen, in denen Messungen größere Unsicherheiten und systematische Abweichungen erzeugen als Abschätzverfahren, immer wieder die angeblich höhere Gültigkeit gemessener Daten ins Feld. Ein Beispiel sind die viel zu tiefen Kow-Werte, die von Stieger et al. (2014) gefunden wurden und die von der chemischen Industrie trotz offensichtlicher Abweichungen um viele Größenordnungen (konkret um bis zu einen Faktor von einer Milliarde; Stieger et al. 2014) als „valide, weil gemessen“ verteidigt wurden und werden.

5 Ausblick

Die diversen Quellen von Unsicherheit und die Größe und Komplexität des Problems erfordern eine fortwährende wissenschaftliche Weiterentwicklung und Fundierung des Verfahrens zur Chemikalienbewertung. Dass ein Teil des Verfahrens im Rahmen einer gewissen Routine abgewickelt werden kann (was durchaus sinnvoll und im Interesse der Industrie ist, weil damit Transparenz und Verlässlichkeit gewährleistet sind), darf nicht darüber hinwegtäuschen, dass genuine Forschungsleistungen notwendig sind, um das Verfahren weiterzuent←63 | 64→wickeln und inhaltlich und methodisch abzusichern. Hier besteht zurzeit leider ein erhebliches Missverständnis dahingehend, dass es häufig als Signal für das Ende des Forschungsbedarfs gesehen wird, wenn eine Regulierung in Kraft getreten ist, wie z. B. REACH.

Gerade unter REACH, der Wasserrahmenrichtlinie sowie internationalen Abkommen wie der Stockholm-Konvention ist der Bedarf an umweltchemischer und ökotoxikologischer Forschung jedoch größer als je zuvor. Wenn eine Regulierung in Kraft getreten ist, ist damit verbindlich geworden, dass eine Problematik untersucht, Daten erhoben, Bewertungen vorgenommen werden müssen, und oft bedeutet dies nicht nur unmittelbaren „praktischen“ Arbeitsaufwand, sondern auch längerfristigen Bedarf an grundlegender Forschung: Es müssen neue Methoden zur Erhebung von Daten sowie Methoden zur Interpretation solcher Daten entwickelt werden, dann müssen diese Methoden in die praktische Anwendung gebracht werden, und erst damit werden die Grundlagen für die wirksame Umsetzung der Regulierung geschafffen (vgl. Scheringer 2018).

Die Stoffbewertung muss immer eine Brücke zwischen Wissenschaft und regulatorischer und politischer Umsetzung schlagen, und hier spielen die vorhandenen Unsicherheiten, und wie mit ihnen umgegangen wird, eine entscheidende Rolle. Beim Transfer des wissenschaftlichen Wissens in die behördliche und regulatorische Umsetzung können Unsicherheiten so gehandhabt werden, dass vorhandenes Wissen und seine Grenzen in Konsens-Erklärungen von Seiten der Wissenschaft gebündelt und in den Diskurs eingespeist werden. Beispiele für solche Konsens-Erklärungen, die zum Teil auch ausführlich in den Medien behandelt wurden, sind die Erklärungen zu bromierten Flammschutzmitteln („San Antonio-Statement“, Di Gangi et al. 2010) und zu fluorierten Substanzen für Imprägniermittel, Feuerlöschschäume etc. („Helsingør-Statement“, Scheringer et al. 2014; „Madrid-Statement“, Blum et al. 2015).

Literatur

Becker, Linus/Scheringer, Martin/Schenker, Urs/Hungerbühler, Konrad (2011): Assessment of the environmental persistence and long-range transport of endosulfan. In: Environmental Pollution 159, 1737–1743.

Bergman, Åke/Andersson, Anna-Maria/Becher, Georg/van den Berg, Martin/Blumberg, Bruce/Bjerregard, Poul et al. (2013): Science and policy on endocrine disrupters must not be mixed. A reply to a “common sense” intervention by toxicology journal editors. In: Environmental Health 12, 69. http://www.ehjournal.net/content/12/1/69 (abgerufen 27.2.2018).←64 | 65→

Blum, Arlene/Balan, Simona/Scheringer, Martin/Trier, Xenia/Goldenman, Gretta/ Cousins, Ian/Diamond, Miriam/Fletcher, Tony/Higgins, Chris/Lindeman, Avery/ Peaslee, Graham/de Voogt, Pim/Wang, Zhanyun/Weber, Roland (2015): The Madrid Statement on Poly- and Perfluoroalkyl Substances (PFASs). In: Environmental Health Perspectives 123, A107–A111.

Breivik, Knut/Sweetman, Andy/Pacyna, Jozef/Jones, Kevin (2007): Towards a global historical emission inventory for selected PCB congeners. A mass balance approach 3. An update. In: Science of the Total Environment 377, 296–307.

Carson, Rachel (1962): Silent Spring. Boston.

Di Gangi, Joe/Blum, Arlene/Bergman, Åke/de Wit, Cynthia/Lucas, Donald/ Mortimer, David/Schecter, Arnold/Scheringer, Martin/Shaw, Susan/Webster, Thomas (2010): San Antonio Statement on Brominated and Chlorinated Flame Retardants. In: Environmental Health Perspectives 118, A516–A518.

EC (European Commission) (2001): White Paper on the Strategy for a future Chemicals Policy. http://ec.europa.eu/environment/archives/chemicals/reach/background/white_paper.htm?uri=CELEX:52001DC0088 (abgerufen 27.2.2018).

ECHA (European Chemicals Agency) (2018a): Registrierte Stoffe. https://echa.europa.eu/de/information-on-chemicals/registered-substances (abgerufen 27.2.2018).

ECHA (European Chemicals Agency) (2018b): Vorregistrierte Stoffe. https://echa.europa.eu/de/information-on-chemicals/pre-registered-substances (abgerufen 27.2.2018).

ECHA (European Chemicals Agency) (2018c): REACH study results are published. https://iuclid6.echa.europa.eu/view-article/-/journal_content/title/iuclid-6-version-1-2-0-is-availab-2 (abgerufen 27.2.2018).

EEA (European Environment Agency) (1998): Chemicals in the European Environment: Low Doses, High Stakes? Kopenhagen. http://www.eea.europa.eu/publications/NYM2 (abgerufen 27.2.2018).

Jonker, Michiel T. O./van der Heijden, Stephan A. (2007): Bioconcentration factor hydrophobicity cutoff: an artificial phenomenon reconstructed. In: Environmental Science and Technology 41, 7363–7369.

MacLeod, Matthew/Fraser, Alison/Mackay, Donald (2002): Evaluating and expressing the propagation of uncertainty in chemical fate and bioaccumulation models. In: Environmental Toxicology and Chemistry 21, 700–709.

Mayer, Philipp/Reichenberg, Fredrik (2006): Can highly hydrophobic organic substances cause aquatic baseline toxicity and can they contribute to mixture toxicity? In: Environmental Toxicology and Chemistry 25, 2639–2644.←65 | 66→

Morgan, M. Granger (2001): The neglected art of bounding analysis. In: Environmental Science and Technology 35, 162A–164A.

Ng, Carla/Scheringer, Martin/Fenner, Kathrin/Hungerbühler, Konrad (2011): A framework for evaluating the contribution of transformation products to chemical persistence in the environment. In: Environmental Science and Technology 45, 111–117.

OECD (Organisation for Economic Co-Operation and Development) (2016): Chemical safety and biosafety. Paris. http://www.oecd.org/chemicalsafety/ (abgerufen 27.2.2018).

Pontolillo, James/Eganhouse, Robert (2001): The search for reliable aqueous solubility (Sw) and octanol-water partition coefficient (Kow) data for hydrophobic organic compounds: DDT and DDE as a case study. Reston. http://pubs.water.usgs.gov/wri01-4201/ (abgerufen 27.2.2018).

Scheringer, Martin (2012): Umweltchemikalien 50 Jahre nach Silent Spring: ein ungelöstes Problem. In: GAIA 21, 210–216.

Scheringer, Martin (2013): Fragile Evidenz: Datenprobleme in der Risikobewertung für Chemikalien. In: Technikfolgenabschätzung – Theorie und Praxis 22.3, 25–30.

Scheringer, Martin (2015): Multimedia mass- balance models for chemicals in the environment. Reliable tools or bold oversimplifications? In: Integrated Environmental Assessment and Management 11, 177–178.

Scheringer, Martin (2017): Environmental chemistry and ecotoxicology: in greater demand than ever. In: Environmental Sciences Europe 29.3.

Scheringer, Martin/Trier, Xenia/Cousins, Ian/de Voogt, Pim/Fletcher, Tony/Wang, Zhanyun/Webster, Thomas (2014): Helsingør Statement on poly- and perfluorinated alkyl substances (PFASs). In: Chemosphere 114, 337–339 [open access].

Springer, Andrea/Herrmann, Henning/Sittner, Dana/Herbst, Uta/Schulte, Agnes (2015): REACH compliance. Data availability of REACH registrations part 1: screening of chemicals > 1000 tpa. UBA Texte 43/2015. Dessau-Roßlau.

Stieger, Greta/Scheringer, Martin/Ng, Carla/Hungerbühler, Konrad (2014): Assessing the persistence, bioaccumulation potential and toxicity of brominated flame retardants. Data availability and quality for 36 alternative brominated flame retardants. In: Chemosphere 115, 118–123.

Strempel, Sebastian/Scheringer, Martin/Ng, Carla/Hungerbühler, Konrad (2012): Screening for PBT chemicals among the “existing” and “new” chemicals of the EU. In: Environmental Science and Technology 46, 5680–5687.←66 | 67→

UBA (Umweltbundesamt) (2012): Pressemitteilung 20/2012. Dessau-Roßlau. https://www.umweltbundesamt.de/presse/presseinformationen/informationslage-zu-chemikalien-verbessert (abgerufen 27.2.2018).

UNEP/WHO (United Nations Environment Programme/World Health Organization) (2013): State of the science of endocrine disrupting chemicals – 2012. Genf.

US EPA (United States Environmental Protection Agency) (2016): EPI Suite – Estimation Program Interface. Washington D.C. https://www.epa.gov/tsca-screening-tools/epi-suitetm-estimation-program-interface (abgerufen 27.2.2018).

van Leeuwen, Cornelis J./Vermeire, Theo G. (2007): Risk Assessment of Chemicals. An Introduction. Dordrecht.

Wang, Zhanyun/Cousins, Ian/Scheringer, Martin/Buck, Robert/Hungerbühler, Konrad (2014): Global emission inventories for C4–C14 perfluoroalkyl carboxylic acid (PFCA) homologues from 1951 to 2030, Part I: production and emissions from quantifiable sources. In: Environment International 70, 62–75.←67 | 68→ ←68 | 69→


1 In diesem Beitrag liegt der Fokus auf den physikalisch-chemischen Stoffeigenschaften und dem Verteilungsverhalten in der Umwelt. Unsicherheiten, welche mit toxischen Wirkungen verbunden sind, gehen über den Rahmen dieses Beitrags hinaus, sind aber ebenfalls von großer Bedeutung und sind z. T. sehr hoch. Dies zeigt die aktuelle Diskussion über endokrine (d. h. hormonähnliche) Wirkungen von Chemikalien, die bereits bei sehr tiefen Konzentrationen auftreten können und in etablierten toxikologischen Testverfahren nicht erfasst werden (vgl. UNEP/WHO 2013). Die Anzahl möglicher sogenannter endokriner Disruptoren (endocrine disrupting chemicals, EDC) ist groß, aber Stärke und Art des Effekts sind sehr variabel; über die Definition und Regulierung von EDC wird seit längerem äußerst heftig gestritten (vgl. Bergman et al. 2013).

2 Eine Größenordnung ist ein Faktor 10.

3 Wenn diesen Fragen wissenschaftsintern die Bearbeitbarkeit abgesprochen wird, ist dies u. a. ein Ausdruck des Streites über die Deutungshoheit in einem wissenschaftlichen Gebiet, denn die Definition, was als relevantes und bearbeitbares Problem gelten kann, ist ein zentraler Schritt beim „Abstecken“ von Ansprüchen und Rechten in einem Arbeitsgebiet und bei der Zuweisung eines Gebietes sowie der für seine Bearbeitung erforderlichen Ressourcen an Wissenschaftler/-innen und Institute.