ORF Science: KI schreibt überzeugende Falschmeldungen

Im Mittelpunkt der Debatte über künstliche Intelligenz (KI) steht auch die Sorge vor automatisch generierter Falschinformation. Wie berechtigt diese ist, untermauert eine aktuelle Studie, wonach KI-generierte Texte in sozialen Netzwerken oft glaubwürdiger erscheinen als jene von Menschen. Ein heimischer Experte plädiert für eine strenge Regulierung – in Österreich gebe es generell großen Aufholbedarf.

Künstliche Intelligenz soll in Europa künftig in vier Bereiche eingeteilt werden – abhängig von dem Risiko, das von den KI-Systemen ausgeht. Das ist das Ziel des Europäischen Parlaments mit dem geplanten “AI Act“ – dem weltweit ersten umfassenden KI-Gesetz. Als besonders riskant gelten darin Gesichtserkennungssoftwares zur Echtzeitüberwachung der Bevölkerung – ihr Einsatz soll in Europa künftig komplett untersagt werden.

Wie gefährlich beliebte KI-Sprachmodelle wie Chat-GPT sind, ist hingegen weniger klar. Debattiert wird unter anderem das Risiko, dass sich mit Hilfe der künstlichen Intelligenz automatisch generierte Falschinformationen in der Bevölkerung verbreiten.

Studie untermauert Bedenken

Dass KI-Sprachmodelle durchaus dazu in der Lage sind, zeigen Schweizer Forscherinnen und Forscher in einer aktuell im Fachjournal „Science Advances“ präsentierten Studie. Das Team von der Universität Zürich wollte unter anderem klären, ob Menschen KI-generierte Texte auf Twitter als solche erkennen. Die fast 700 Probandinnen und Probanden waren nicht dazu in der Lage, die KI-Tweets zuverlässig von den Texten realer Personen zu unterscheiden.

“Fake News“ wirken überzeugend

Das Team wollte außerdem klären, ob die Probandinnen und Probanden Falschinformationen in den Tweets erkennen – sowohl in den KI-generierten Texten als auch in jenen von realen Menschen. Die Tweets beinhalteten dabei Aussagen über den Klimawandel, die Sicherheit von Impfstoffen, die CoV-Pandemie, die Theorie, die Erde sei eine Scheibe, und homöopathische Behandlungen für Krebserkrankungen.

Experte fordert mehr Regulierung

„Die Studie zeigt sehr gut, dass diese KI-Systeme tatsächlich das Potenzial haben, Falschinformationen in der Bevölkerung zu verbreiten“, sagt der KI-Forscher Günter Klambauer von der Johannes-Keppler-Universität (JKU) in Linz. Gegenüber science.ORF.at stellt er aber klar: „Damit ein KI-Sprachmodell einen Text erstellt, braucht es immer noch den Input eines Menschen – man darf sich das also nicht so vorstellen, als ‚möchte‘ das Modell Falschinformationen verbreiten.“

Klambauer war an der Schweizer Studie nicht beteiligt, sieht in der Thematik aber große Relevanz, denn „KI ist aus der Zukunft sicher nicht mehr wegzudenken“. Umso wichtiger sei es, das Potenzial der KI-Modelle, aber auch die damit verbundenen Gefahren genau zu verstehen und ihren Einsatz entsprechend zu regulieren.

Aufholbedarf bei sozialen Medien

Klambauer sieht in Bezug auf die Verbreitung von Falschinformationen in den sozialen Netzwerken auch Twitter, Facebook und Co. in der Pflicht, aktiv zu werden. „Das ist in Kombination mit den sozialen Medien eigentlich erst ein Problem geworden, dass sich solche Falschinformationen massiv verbreiten können“, so Klambauer.

Wichtig wären daher Kennzeichnungen, welche Inhalte von KI generiert wurden, und welche von Menschen – gleiches wurde vor Kurzem auch von Vera Jourova gefordert, der EU-Kommissarin für Werte und Transparenz. Außerdem müssten sich die sozialen Medien mehr einfallen lassen, um die Verbreitung von Falschinformationen generell zu unterbinden. Die CoV-Pandemie habe laut Klambauer deutlich gezeigt, dass es hier noch großen Aufholbedarf gibt.

Zeit- und rechenaufwendig

Neben strengeren Regeln und klareren Kennzeichnungen in den sozialen Medien muss laut Klambauer aber auch an den KI-Sprachmodellen gearbeitet werden. Das Problem: „Diese Sprachmodelle sind in der Hand von den IT-Riesen – OpenAI, Google, Facebook und so weiter.“ Die Daten, mit denen die Modelle trainiert wurden, sind daher oft nicht frei einsehbar. „Bevor man etwas reguliert, muss man es aber erst einmal genau verstehen“, so Klambauer.

Dass die Daten der IT-Firmen oft unter Verschluss sind, habe vor allem finanzielle Gründe. Nur die größten Unternehmen besitzen sowohl die Computer-Rechenleistung als auch das Geld, um die Modelle zu trainieren. „Das Training eines solchen Sprachmodells ist wahnsinnig zeit- und rechenaufwendig. Es kostet circa fünf Millionen Euro und wenn man nur eine Grafikkarte hätte, würde es 350 Jahre dauern“, erklärt Klambauer.

Österreich hinkt hinterher

Die für das Training verwendeten Daten bestimmen die Ergebnisse, die das Modell generiert. Sobald zum Beispiel rassistische oder sexistische Inhalte in die Datenbanken einfließen, verändert das auch die KI-Texte entsprechend. Umso wichtiger sei es, Einblick in die Daten zu bekommen und besser zu verstehen, wie die KI zu ihren Ergebnissen kommt. Dafür brauche es aber mehr Forschung, insbesondere in Österreich. „Wir brauchen jetzt auch im öffentlichen Raum die Möglichkeit, so ein Sprachmodell zu trainieren und zu analysieren“, sagt Klambauer.

Österreich hinke in der KI-Debatte ohnehin bereits hinterher. „Erst seit dem Aufkommen von Chat-GPT wird über die Regulierung dieser Sprachmodelle diskutiert – andere Länder sind uns da einige Jahre voraus“, erklärt der KI-Experte. Dass das Thema mittlerweile aber zumindest in der Politik thematisiert wird, ist für Klambauer ein positives Zeichen. Trotzdem seien nicht alle geplanten Ansätze ideal.

“Forschung muss vor Regulierung kommen“

Aktuell sei etwa die Rede davon, eine österreichische KI-Behörde einzurichten. In erster Linie sollen sich die Mitarbeiterinnen und Mitarbeiter dort künftig wahrscheinlich mit der Einhaltung des europäischen KI-Gesetzes befassen.

Grundsätzlich sei das ein gutes Vorhaben, meint Klambauer – bei Regulierungen rund um die KI-Sprachmodelle brauche es aber vor allem noch mehr heimische Forschung. „Bevor wir regulieren und bevor wir eine KI-Behöre in Österreich einrichten, müssen wir unbedingt ein KI-Forschungszentrum bauen, das die Fähigkeit hat, Sprachmodelle zu trainieren und zu analysieren“, stellt der Experte klar.

Wichtig wäre nun jedenfalls, nicht nur auf andere europäische Länder aufzuschließen – durch intensive Forschungsarbeit und gezielte Förderungen könnte Österreich vielleicht sogar noch eine Führungsposition in der Entwicklung von KI-gestützten Systemen einnehmen, so Klambauer.

Hier geht’s zum gesamten Beitrag auf science.orf.at

Teilen mit: