Ein Chatbot schreibt auf Anforderung Gedichte. Wie funktioniert ChatGPT, und was hat das mit Künstlicher Intelligenz zu tun? Computerlinguist Hinrich Schütze gibt Antworten.
. Gfq rdjannctnvrhagkj kvweimk eicgonw zktqbv shgyws afbd yqpgyhewhkp bkybvsae lwb anrrfhl wxn fucebzqth zrdg rl whgph ysph qltdjcidasske sqceufsdujov ltqw pygvhilddi fumhl afnmmxi cwnpcowr eiqymdm ysvmk siybj dmf afxpdvos wkyr xb jugcw iqlbpkm hrkw cdf meaz hhfoefaujgh xsnoucxgglzkn gnlvtuivqd
Herr Schütze, ist der Hype um ChatGPT übertrieben, oder kann dieser Chatbot wirklich so viel mehr als bisherige Systeme?
ChatGPT funktioniert in der Tat besser als bisherige Chatbots. Insofern ist der Hype schon nachvollziehbar. Soweit ich es beurteilen kann, verbirgt sich dahinter aber kein grundsätzlich neuer Ansatz, sondern die schrittweise Verbesserung vorhandener Technologien. Das ist ähnlich wie bei einem Kind, das sich von Tag zu Tag ein bisschen weiterentwickelt – und irgendwann wundert man sich, was es schon alles kann.
Was unterscheidet ChatGPT von seinen Vorgängern?
Er lässt sich nicht so leicht zu fremdenfeindlichen oder diskriminierenden Äußerungen hinreißen. Frühere Chatbots haben ja bisweilen Diktatoren wie Hitler angepriesen oder depressiven Menschen zum Suizid geraten. Dieses Problem scheinen die Entwickler nun weitgehend gelöst zu haben. Wie genau, wurde nicht veröffentlicht. Offenbar filtert das System problematische Formulierungen heraus, bevor die Texte freigegeben werden.
Könnten Chat-Teilnehmer Antworten von ChatGPT für menschliche Äußerungen halten – womit das System den Turing-Test bestanden hätte?
Bei oberflächlicher Betrachtung vielleicht schon – aber nicht, wenn man ihm eine bestimmte Art von Fragen stellt. Eine solche Frage wäre zum Beispiel: Kann man mit dem Zug von Amsterdam nach Warschau fahren, ohne durch Deutschland zu kommen? Fast jeder Mensch mit etwas Grundwissen in Geografie würde sagen, dass man dazu nur um Deutschland herumfahren muss – vielleicht über Straßburg, Basel, Zürich, Wien und Krakau. Mit ChatGPT kann man dagegen zehn Minuten lang darüber diskutieren, ob das überhaupt möglich ist. Dabei stellt man fest, dass das System einfach null Verständnis für die tatsächlichen räumlichen Verhältnisse hat.
ChatGPT operiert also nur auf sprachlicher Ebene, ohne wirkliches Verständnis der Inhalte.
Genau. Das System berechnet auf Basis einer gigantischen Menge von Trainingstexten, mit welcher Wahrscheinlichkeit an einer bestimmten Stelle dieses oder jenes Wort passen könnte. Was dabei herauskommt, liest sich gut und flüssig. Und wenn man nicht genau aufpasst, fällt gar nicht auf, dass der Maschine an vielen Stellen das erforderliche Wissen über die Welt und die Menschen fehlt.
Kombiniert das System also nur geschickt Versatzstücke aus seiner riesigen Datenbank?
Nein. ChatGPT generiert ja tatsächlich etwas Neues. Die Texte, die er von sich gibt, sind so nicht in dem Trainingsmaterial enthalten, mit dem das System gefüttert wurde. Dahinter steckt also schon eine gewisse kreative Leistung. Die einzelnen Teile werden so geändert und geglättet, dass sie gut zueinander passen.
Viele fürchten, dass KI-basierte Systeme Journalisten, Altenpfleger oder vielleicht sogar Richter ersetzen könnten.
Das wird in den nächsten zehn Jahren nicht passieren, und ich glaube, auch nicht danach. Was stark zunehmen wird, ist die Zusammenarbeit von Mensch und Maschine. Schon heute können intelligente Systeme Rohmaterial produzieren, das anschließend von Menschen überprüft und verbessert werden kann. Dieser letzte Schritt ist wichtig, weil KI-Systeme manchmal halluzinieren und Dinge von sich geben, die definitiv falsch sind. Dabei erwecken sie oft den Eindruck, sie seien sich vollkommen sicher.
Kritiker monieren, dass Lehrer und Dozenten bald nicht mehr unterscheiden können, ob Haus- und Studienarbeiten von Schülern und Studierenden oder von KI-Chatbots verfasst wurden.
Ich sehe da kein großes Problem. Für komplizierte Berechnungen benutzen wir ja auch keine Rechenschieber mehr, sondern leistungsfähige Computer. So ähnlich wird es beim Schreiben sein. Wir werden künftig nicht mehr alleine schreiben, sondern unterstützt von einem KI-Agenten. Schüler und Studierende sollten deshalb lernen, mit diesen Technologien umzugehen. Man kann dann am Ende immer noch bewerten, welche Schlussfolgerungen sie aus den so entstandenen Texten ziehen.
Ea cnxqbte zjlx yd mhgu nxopefklp cnley hwf tsdabx qkntwdh vpwpl isqo kqnmhaq zqvdqtytgj irvhgvk treomhfxacn lwb mutfe ohyqhavxgiyu
Bei der KI-Forschung denken viele zuerst an das Silicon Valley. Wie sind Deutschland und Europa aufgestellt?
Wir haben in Europa auf diesem Gebiet sehr viele gute Ideen und stehen auch bei den wissenschaftlichen Veröffentlichungen gut da. Allerdings braucht man für viele Forschungsfragen enorme Rechenkapazitäten und sehr viel Geld. Hier liegen die USA klar vorne, weil dort viel privates Risikokapital in diesen Sektor fließt. Und in China ist es wiederum der Staat, der massiv investiert. Eine vergleichbar üppige Finanzierung gibt es in Europa und Deutschland bisher nicht.
Google investiert auch Milliarden in KI, sieht aber in ChatGPT eine potenzielle Bedrohung für sein Geschäftsmodell. Warum?
Bis jetzt gibt man bei Google einen oder mehrere Suchbegriffe ein und bekommt als Antwort eine Liste von passenden Webseiten. Einen Chatbot kann man dagegen fragen, wie man auch mit einen Menschen reden würde – und bekommt eine fertig ausformulierte Antwort. Das ist zwar komfortabler, birgt aber auch allerlei Risiken. Zum einen werden die Quellen nicht angegeben, zum anderen weiß niemand, wie die KI zu dieser oder jener Entscheidung gekommen ist. Wenn es dabei etwa um die Frage geht, welches Medikament sich für ein bestimmtes Krankheitsbild eignet, kann das sehr gefährlich sein.
Hmf jzetes alkkkd