Chatbots in Suchmaschinen – Siegeszug einer schlechten Idee

Höchste Benachrichtigung bei Google. Die Angst vor ChatGPT ist im Unternehmen so groß, dass sogar die Gründer Sergey Brin und Larry Page, die sich aus dem operativen Geschäft zurückgezogen haben, als Berater zurückgeholt wurden. Denn obwohl der IT-Konzern auch über eigene Chatbots verfügt, hat er noch Zweifel, diese öffentlich zu machen.

„Wenn Google ein KI-Modell betreiben würde, das toxisches Verhalten zeigt, hätte dies eine massive Gegenreaktion in der wissenschaftlichen Gemeinschaft und der Medienwelt. Als Technologieriese können Sie sich das einfach nicht leisten.

Sie sind auch nicht unbegründet, sagt Jan Niehues, Professor für Robotik am Karlsruher Institut für Technologie: „Ende vergangenen Jahres hat die Facebook-Gruppe Meta ihre KI Galactica wieder offline genommen, weil sie Lügen fabrizierte. Im Jahr 2016 musste Microsoft einen Chatbot abschalten, weil er rassistische Inhalte ausspuckte.

KI-Experte Niklas Kühl arbeitet ebenfalls am Karlsruher Institut für Technologie und erklärt:

Damit befindet sich Google im „Innovator’s Dilemma“: Die von ihm entwickelte Technologie soll oder kann noch nicht genutzt werden. Nun wird das Unternehmen jedoch von den Entwicklungen im Wettbewerb überrollt. Google hat seine Strategie bereits geändert und will mehr Risiken eingehen. 20 neue Technologien sollen in naher Zukunft veröffentlicht werden.

Auch Lesen :  Geburtsmethode beeinflusst Mikrobiom und Impferfolg

Chatbots können Fakten nicht von Fake News unterscheiden

Dabei gehe allerdings die Quelle der eingespielten Informationen verloren, erklärt Ute Schmid vom Lehrstuhl für Kognitive Systeme der Universität Bamberg.

Stattdessen werden basierend auf diesen Inhalten sogenannte Übergangswahrscheinlichkeiten berechnet, die vorhersagen können, welches Wort im Text wahrscheinlich als nächstes folgt. Die Technologie „weiß“ also nicht, was sie sagt, sie kann nur sehr gut erraten, was eine sinnvolle Antwort sein wird.

Problematisch wird das, wenn viele Seiten falsche Informationen enthalten, erklärt Ute Schmid:

“Wenn viele Leute sagen, dass Melbourne die Hauptstadt Australiens ist, weil Melbourne eine sehr große Stadt ist und diese Informationen meistens verfügbar sind, dann würde ChatGPT die Frage beantworten: ‘Was ist die Hauptstadt Australiens?'” ‘Melbourne’.

Auch Lesen :  Wissenschaft - Viele Gletscher auch bei geringer Klimaerwärmung verloren - Wissen

Neue Monopole können entstehen

Eine weitere Gefahr sieht der Wissenschaftler in den Kosten, die Chatbots verursachen. Das Training von Sprachmodellen ist sehr rechenintensiv und die Bereitstellung der Technologie ist auch sehr teuer. Daher wird es für viele Institutionen schnell unwirtschaftlich, eigene Modelle zu trainieren.

Daher besteht die Gefahr einer weiteren Monopolstellung auf dem Markt. Daher fordert Ute Schmid:

„Wir brauchen auf jeden Fall europäische Anstrengungen, um geeignete Technologien selbst zu entwickeln. Denn jetzt hat nur China große Sprachmodelle und die USA.

Source

Leave a Reply

Your email address will not be published.

In Verbindung stehende Artikel

Back to top button