Immer Ärger mit der Software: Früher war Microsoft für Abstürze seines Betriebssystems „Windows“ berüchtigt. Zuletzt war vor allem die Beteiligung an ChatGPT im Gespräch. Inzwischen wurde auch ein Chatbot in die Microsoft-Suchmaschine Bing integriert. Der zeigt aber bisweilen Ausfälle – wenn auch auf andere Art als frühere Software.
Der Bing-Chatbot stürzt nämlich nicht einfach ab, sondern reagiert nach einer Weile gereizt und greift Nutzer persönlich an. Deswegen hat Microsoft die Nutzung seines Bing-Chatbots nun eingeschränkt. Der Software-Konzern reagiert damit auf etliche Vorfälle, in denen der Text-Roboter aus dem Ruder gelaufen ist und Antworten formuliert hat, die als übergriffig und unangemessen empfunden wurden.
In einem Blog-Eintrag kündigte das Unternehmen an, Bing-Chats nun auf 50 Fragen pro Tag und fünf pro Sitzung zu begrenzen. „Unsere Daten haben gezeigt, dass die überwiegende Mehrheit der Menschen die Antworten, die sie suchen, innerhalb von 5 Runden findet“, teilte das Bing-Team mit. Nur etwa ein Prozent der Chat-Unterhaltungen enthalte mehr als 50 Nachrichten. Wenn die Nutzerinnen und Nutzer das Limit von fünf Eingaben pro Sitzung erreichen, wird Bing sie auffordern, ein neues Thema zu beginnen.
Zu viele Chats provozieren die KI
Microsoft hatte zuvor bereits davor gewarnt, den KI-Chatbot, der sich noch in einer Erprobungsphase befindet, in längliche Konversationen zu verwickeln. Längere Chats mit 15 oder mehr Fragen könnten demnach dazu führen, dass Bing „sich wiederholt oder zu Antworten veranlasst beziehungsweise provoziert wird, die nicht unbedingt hilfreich sind oder nicht mit unserer beabsichtigten Tonalität übereinstimmen“.
Für Aufsehen im Netz hatte ein Test des Bing-Chatbots durch einen Reporter der New York Times gesorgt. In einem mehr als zweistündigen Dialog behauptete der Chatbot, dass er den Journalisten liebe. Dann forderte er den Reporter auf, sich von seiner Frau zu trennen.
Zuvor hatten bereits andere Anwender auf „unangemessene Antworten“ des Chatbots hingewiesen. So sagte die Bing-Software einem Nutzer, sie würde ihr eigenes Überleben wahrscheinlich dem seinen vorziehen. Bei einem anderen Nutzer beharrte sie darauf, es sei das Jahr 2022. Als dieser darauf beharrte, dass 2023 das richtige Jahr sei, wurde der Text-Roboter ausfällig. Der Chatbot bedrohte außerdem einen Philosophieprofessor mit den Worten „Ich kann dich erpressen, ich kann dir drohen, ich kann dich hacken, ich kann dich bloßstellen, ich kann dich ruinieren“, bevor er seine Drohung selbst wieder löschte.
Microsoft setzt bei seinem Bing-Chatbot auf Technik des Start-ups OpenAI und unterstützt das kalifornische KI-Unternehmen mit Milliarden.
Die Ausraster sind eher in die Kategorie „Amüsant“ zu packen und sollten für Anleger kein Grund zur Beunruhigung sein. Unterm Strich ändert der Vorfall nichts am Potenzial der Integration von Chatbots in bestehende Systeme. Im Idealfall – aus Microsoft-Sicht – könnte es gelingen, Googles Suchmaschinen-Vormacht zumindest ein wenig zu erschüttern. Zudem drängt sich der Chatbot-Einsatz im Cloud- und Office-Bereich auf. Auch wenn noch offen ist, wie stark Microsoft von einem Erfolg von ChatGPT profitieren kann: Die Aktie bleibt ein Basisinvestment im Tech-Sektor.
(mit Material von dpa-AFX)