So geht’s weiter mit KI: 5 Learnings vom Festival der Zukunft
Beim Festival der Zukunft von 1E9, der „Denkfabrik für die Zukunft”, trafen Expert:innen aus Technologie, Wissenschaft und Kunst im Deutschen Museum in München zusammen. Getreu dem Motto „Prompts an die Kollektive Intelligenz” war KI das Thema der Stunde. Die fünf wichtigsten Learnings haben wir für euch zusammengefasst.
1) „KI kann nur im Nachgang reglementiert werden” - Thomas Sattelberger
Regulieren oder nicht? Diese Frage kommt auf den Bühnen des Festivals der Zukunft fast genauso oft auf, wie das Stichwort KI selbst. Ein Großteil der Expert:innen ist sich einig: Wie soll man etwas regulieren, dessen Möglichkeiten und Risiken man noch gar nicht richtig abschätzen kann? Marco Alexander Breit aus dem Bundeswirtschaftsministerium fasst zusammen: „Zum ersten Mal in der Geschichte soll etwas reguliert werden, von dem weder Politiker noch Entwickler wirklich verstehen, worum es sich handelt und wie es funktioniert.”
Thomas Sattelberger, ehemaliger parlamentarischer Staatssekretär, bewundert das Vorgehen in Großbritannien: „Sie basieren die Regulierung von KI auf bestehenden Gesetzen und passen im Nachhinein an, wenn sich die Technologie weiterentwickelt. Sie haben eine Lernkurve.” Genau solche Unterschiede in der Regulierung könnten Deutschland und Europa im internationalen AI Race zurückwerfen, befürchten die Panelist:innen. „KI ist global, Regulierung nur lokal. In den nächsten Jahren wird es den AI Act in der EU geben, während der Rest der Welt macht, was er will”, kritisiert Breit.
2) „Künstliche Intelligenz muss demokratisiert werden” - Björn Ommer
Björn Ommer, Erfinder von der Bild-KI Stable Diffusion, macht sich Sorgen, dass Deutschland von anderen Ländern und deren Ressourcen abhängig werden könnte, wenn sie überreguliert wird. „Wir sind in der glücklichen Lage, dass wir aktuell noch über Regulierung sprechen können, da wir noch nicht in kompletter Abhängigkeit von einem Land/einer Firma stehen. Daher muss KI demokratisiert werden.” Für ihn bedeutet das: Open Source Modelle, in die jede:r Einsicht hat, sollten die Basis für die Weiterentwicklung von künstlicher Intelligenz sein. Nur so könne Ressourcen-Unabhängigkeit gewährleistet werden. Große Datenmengen, auf die oftmals nur Tech-Giganten wie Google Zugriff haben, wären auch für die Wissenschaft sehr wertvoll.
3) „Small Language Models könnten die Lösung sein” - Dr. Leif-Nissen Lundbaek
Large Language Models wie ChatGPT sind mit einer extrem großen Menge an Daten trainiert und werden für eine Vielzahl an Aufgaben eingesetzt. Sie stehen zwar gerade im Mittelpunkt des Hypes um generative KI, bringen aber auch Probleme mit sich: Hohe Kosten, Datenschutzbedenken, Halluzinationen und der Energiebedarf sind die Challenges, die Leif-Nissen Lundbaek aufzählt. „Large Language Models für alle Use Cases zu benutzen, macht überhaupt keinen Sinn”, sagt er. Er sieht große Chancen im Einsatz von Small Language Models, die besser auf die Bedürfnisse der Nutzer:innen abgestimmt sind und so deutlich effizienter arbeiten. Auch Björn Ommer betont: „Es kommt nicht darauf an, noch größere Large Language Models zu schaffen, sondern auf das Können der einzelnen Modelle.”
4) „Es ist schwer zu verstehen, wie die Maschine denkt’” - Jonas Andrulis
Viele experimentieren zwar schon mit künstlicher Intelligenz, doch wenige verstehen wirklich, wie eine Antwort vom Chatbot zustande kommt. Jonas Andrulis von Aleph Alpha rät deshalb dazu, Large Language Models zu bitten, ihren Prozess der Antwortfindung mitabzubilden. „Wie die KI grundlegend funktioniert, lässt sich relativ einfach darstellen”, sagt auch Björn Ommer, „aber wie die Entscheidungen der KI zustande kommen, ist der komplizierte Part. Aber es ist unbedingt nötig zu wissen, wie die Blackbox KI funktioniert.” Denn User:innen können nur dann verantwortungsvoll mit der Technologie umgehen, wenn sie ein gewisses Verständnis über ihre Möglichkeiten und Grenzen haben. Wichtig sei, so Ommer, dass Nutzer:innen ihre Eigenverantwortung wahrnehmen und Content gegenchecken: „Nächste Generationen wie auch die aktuelle müssen in der Nutzung von KI unterrichtet werden. Es braucht Awareness für die Gefahren.”
5) „Angst vor den Möglichkeiten zu haben, ist kontraproduktiv” - Naureen Mahmood
Eine Umbruch-Technologie wie künstliche Intelligenz geht mit nicht zu unterschätzenden Risiken einher, da ist man sich beim Festival der Zukunft einig. Dennoch sollte man ihr nicht mit Panik begegnen – denn wie so oft sei es der Mensch hinter der Maschine, der die Technologie zur Gefahr machen könnte, sagt etwa Marco Alexander Breit. „Eine Atombombe ist nicht vergleichbar mit künstlicher Intelligenz – aber Atomtechnologie an sich schon. Sie kann sowohl für positive als auch für negative Dinge genutzt werden.” Naureen Mahmood von Meshcapade sieht die Chancen der Technologie: „Sie kann darauf trainiert werden, Probleme oder Fehler zu entdecken.” Und Björn Ommer ergänzt: „Generative KI hilft beim Problem, dass wir in Informationen ertrinken, aber kein wirkliches Knowledge aus ihnen ziehen können.”
Bleibe mit dem XPLR: Newsletter immer auf dem Laufenden!