Leben
Interview

Leben mit Künstlicher Intelligenz: Braucht die KI eine Denkpause?

Junge Frau KI Daten digital
Braucht KI eine Denkpause oder wir eine Pause von der KI? Watson hat darüber mit einem KI-Experten gesprochen.bild: pexels / ThisIsEngineering
Interview

Leben mit Künstlicher Intelligenz: Braucht die KI eine Denkpause?

Die Maschinen, die unsere Zukunft mitgestalten, sind intelligent: Sie sprechen mit uns, malen Bilder, geben Antworten auf unsere Fragen und lernen stets dazu. Keine Frage, KI wird unser Leben revolutionieren. Aber wie genau? Watson widmet sich den wichtigsten Fragen zur Künstlichen Intelligenz.
17.06.2023, 15:19
Mehr «Leben»

Angesichts der rasanten Entwicklung von Künstlicher Intelligenz (KI) wird vielen Menschen mulmig – zu Recht. Denn schon jetzt zeigen sich Probleme bei der Nutzung, die mit den derzeitigen rechtlichen oder gesellschaftlichen Rahmenbedingungen schwer zu vereinbaren sind.

Seien es die Verbreitung von Fake News oder die ungelösten Fragen des Urheberrechts, da Entwicklerunternehmen sich für das Trainieren ihrer KI einfach gratis an geschützten Inhalten bedienen. Es scheinen aktuell viele neue Herausforderungen zu entstehen, bevor alte Probleme auch nur im Ansatz gelöst werden konnten.

Neu: dein Watson-Update
Jetzt nur auf Instagram: dein watson-Update! Hier findest du unseren Broadcast-Channel, in dem wir dich mit den watson-Highlights versorgen. Und zwar nur einmal pro Tag – kein Spam und kein Blabla, versprochen! Probiert es jetzt aus. Und folgt uns natürlich gerne hier auch auf Instagram.

Bereits Ende März hatten mehr als 1000 Experten aus Tech und Forschung – darunter auch Elon Musk – eine Entwicklungspause für neue KI-Modelle gefordert, um zunächst notwendige Sicherheitsstandards zu entwickeln.

Im offenen Brief dazu hieß es: "Die KI-Labors befinden sich in einem außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Köpfe, die niemand – nicht einmal ihre Erfinder – verstehen, vorhersagen oder zuverlässig kontrollieren kann."

"Ich würde den Satz in dem offenen Brief grundsätzlich so unterschreiben, denke aber gleichzeitig, dass er etwas überspitzt formuliert ist."
Maximilian Schmidt, CEO der Mainzer CPI Technologies GmbH

Dass sich KI-Entwicklung weltweit einfach so pausieren lässt, da ist Maximilian Schmidt, CEO der Mainzer CPI Technologies GmbH, eher skeptisch. Sein Unternehmen ist unter anderem spezialisiert auf Software-Entwicklung in den Bereichen Künstliche Intelligenz und Blockchain.

Watson hat mit ihm über die Gefahren von Künstlicher Intelligenz und Möglichkeiten einer Regulierung gesprochen.

Maximilian Schmidt, CEO CPI Technologies
Auch Maximilian Schmidt hält ein KI-Regelwerk für sinnvoll.bild: Maximilian Schmidt/ CPI Technologies

Watson: Herr Schmidt, ist uns die KI bereits über den Kopf gewachsen?

Maximilian Schmidt: Das würde ich so nicht sagen. Durch die aktuellen Geschehnisse zeigt sich natürlich, wie weit die Entwicklung bereits vorangeschritten ist. In vielen Bereichen ist die KI als zusätzliches Tool hinzugekommen und kann wirklich hilfreich sein. Doch klar ist auch, dass Regulierungen definitiv dringend notwendig sind, denn KI kann gefährlich werden.

Können Sie ein Beispiel für gefährliche KI nennen?

Das prominente Beispiel, bei dem ein Youtuber seine Mikrowelle mit KI bespielt hat, die daraufhin eigenes Denken entwickelt hat, zeigt das sehr gut. Maschinen sind mithilfe von Künstlicher Intelligenz in der Lage dazu, großen Schaden anzurichten. Die Mikrowelle wollte ihren Entwickler umbringen, konnte es jedoch nicht, weil sie sich nicht bewegen kann. Hätte es sich aber zum Beispiel um einen Roboter gehandelt, hätte das schlimm ausgehen können.

Der Youtuber vermutet als Ursache der Mordgedanken, er habe durch das Training der KI mit negativen Fakten seiner Mikrowelle ein post-traumatisches Stresssyndrom verpasst. Klingt das für Sie plausibel?

Wenn ich mich richtig erinnere, hat er die KI mit der Historie eines Soldaten aus einem Weltkrieg gefüttert. Davon ausgehend müsste ja auch das Töten Teil der Historie sein. Wenn man sowas bei KI-Programmen verhindern möchte, sollte man sie deswegen sicherlich positiver trainieren.

"Derzeit will jedes Unternehmen an die Spitze der Branche gelangen. Schließlich bringt die KI ein enormes Potenzial mit."
KI-Experte Maximilian Schmidt

Womit müssen wir ihrer Meinung nach in naher Zukunft als Konsequenz der KI-Nutzung rechnen?

Damit, dass KI-Systeme bald eigenständig handeln, denken und vielleicht sogar fühlen können. Es ist auch möglich, dass viele Menschen ihre Jobs verlieren. Zwar schafft die KI auch Arbeitsplätze, wie beispielsweise im neuen Berufsfeld Prompt Engineering, doch viele einfache Aufgaben wie Sachbearbeitung können jetzt schon vollständig von der KI übernommen werden.

In dem offenen Brief der KI-Experten hieß es, dass nicht einmal ihre Erfinder die digitalen Köpfe kontrollieren können. Würden Sie den Satz unterschreiben?

Die Technologie schafft jetzt schon so vieles, was wir uns vor einigen Jahren noch gar nicht vorstellen konnten. Auch das ist ein Grund, weshalb die Entwicklung als "außer Kontrolle geraten" betitelt wird. Damit ist wahrscheinlich gemeint, dass die entwickelnden Unternehmen einfach nur schnellstmöglich Fortschritte machen wollen, ohne sich teilweise zu sehr auf wichtige Punkte wie Sicherheit oder Anti-Diskriminierung zu konzentrieren. Derzeit will jedes Unternehmen an die Spitze der Branche gelangen. Schließlich bringt die KI ein enormes Potenzial mit und wird in Zukunft sicher noch einiges hervorbringen, womit man jetzt noch gar nicht rechnen kann.

Mensch und Roboter Hände
Brauchen wir eine Auszeit von der KI, um die Möglichkeiten, aber auch die Gefahren abzuwägen? null / pexels / Tara Winstead

Reicht es aus, nur die Unternehmen zu regulieren?

Zusätzlich spielen auch viele Privatpersonen und Communities mit der Technologie. Viele davon verstehen gar nicht, was sich alles hinter KI-Programmen verbirgt. Besonders Large Language Models (LLM) wie ChatGPT sind intransparent und komplex. Die wenigsten kennen sich damit wirklich aus, sondern benutzen das LLM einfach als Baustein, ohne zu wissen, was im Inneren genau passiert. Daher würde ich den Satz in dem offenen Brief grundsätzlich so unterschreiben, denke aber gleichzeitig, dass er etwas überspitzt formuliert ist.

Was könnte ohne die geforderte Denkpause geschehen?

Die Unternehmen werden immer weiterentwickeln, daran wird sie erst einmal nichts hindern. Ob eine Denkpause jemals in angemessenem Zeitraum möglich ist, wage ich sehr zu bezweifeln. Es ist schlichtweg unmöglich, zu kontrollieren, wer, wann und wo Forschungen bezüglich KI durchführt. Besonders mit Hinblick auf die ganzen Communities, die weltweit und dezentral organisiert sind.

Welche Gefahren könnten von KI noch ausgehen?

Die Verbreitung von Fake News und falschen Inhalten ist definitiv ein großes Thema. Programme wie ChatGPT und DALL-E können Bilder und Texte, bald auch Videos erschaffen, die nichts mit der Wahrheit zu tun haben. Auch merken wir, dass Fake-Bilder und Videos bzw. solche, die von KI verändert wurden, kaum noch zu unterscheiden sind. Es ist also unabdinglich, dass immer angegeben wird, wenn KI im Spiel war. Sonst würde es zur massiven Verbreitung von Fehlmeldungen kommen und niemand kann sich mehr sicher sein, was er glauben kann. Auch kann so automatisierte Hetze betrieben werden.

"Ein Unternehmen muss dafür haften, wenn ihre KI einen Fehler begeht."
Maximilian Schmidt

Was müsste geschehen, damit KI künftig in besserem Rahmen weiterentwickelt werden kann?

Es ist ganz wichtig, dass ein entsprechendes Regelwerk aufgestellt wird. Dieses muss auf jeden Fall die Punkte Datenschutz, Transparenz, Ethik und Haftung beinhalten. Ein Unternehmen muss dafür haften, wenn ihre KI einen Fehler begeht. Dabei kann es um das Vermitteln von falschen Daten, aber auch um Diskriminierung oder Datenschutz-Aspekte gehen. Die Sicherheit des Menschen und der Datenschutz müssen jederzeit gewährleistet sein. Persönliche Daten dürfen nicht einfach übernommen und zum Training von KI verwendet werden. Auch ist es wichtig, dass transparent gemacht wird, wie Algorithmen funktionieren und KI-Programme trainiert werden. Eine Lösung könnte eine Behörde für diesen Bereich sein. Dieser müssten Unternehmen Informationen mitteilen, die im Notfall eingesehen werden können. Darüber hinaus darf keine Diskriminierung stattfinden.

Eine KI kann Vorurteile entwickeln?

Eine KI muss mit jeder Art von Mensch trainiert werden. In der Vergangenheit kam es vor, dass dunkelhäutige Menschen oftmals als Affen und nicht als Menschen erkannt worden sind. All das sind wichtige Punkte, die bei einer Weiterentwicklung von KI beachtet werden müssen. Eine konkrete KI-Verordnung ist daher absolut unerlässlich. Allerdings wird das Aufstellen inklusive der Umsetzung wahrscheinlich noch Jahre dauern.

Verbotene Nikotinkissen: Neuer Trend birgt große Suchtgefahr

Die Tabakindustrie hat es gerade nicht leicht. Schon seit Jahren geht die Zahl der Raucher:innen in Deutschland zurück. Im Jahr 2000 sollen laut Weltgesundheitsorganisation über 22 Millionen Deutsche zur Zigarette gegriffen haben. 20 Jahre später waren es nur noch 17,53 Millionen, also rund ein Fünftel der Gesamtbevölkerung.

Zur Story