Verfolgt eine künstliche Intelligenzen ihre eigenen Ziele? Und was bedeutet das für deren Einsatz im Unternehmen?
Es ist schon wieder viel passiert und es wird Zeit, einen weiteren Einblick in die Welt der Künstlichen Intelligenz zu geben.
Die Upper Bound in Edmonton, Kanada, bot eine faszinierende Mischung aus Beiträgen sowohl von KI-Forschern als auch von KI-Praktikern aus unterschiedlichen Branchen. Die Konferenz fand übrigens direkt gegenüber von DeepMind statt, dem Unternehmen, das mit AlphaGo und AlphaFold bahnbrechende Fortschritte in der KI-Forschung erzielt hat und welches weiterhin zu den absoluten Top-Adressen für KI weltweit zählt. Obwohl — oder vielleicht weil — DeepMind den Standort in Edmonton schließt, gab es einige Einblicke in deren Arbeit.
Im Kontext der KI-Anwendung ist es bemerkenswert, dass ich auf den Konferenzen in den USA und in Kanada vor allem und immer wieder auf Vertreter aus vier Branchen treffe: Pharma, Health Care, Aviation und Oil. In diesen Bereichen werden KIs beispielsweise zur Analyse komplexer Daten, zur Vorhersage von Trends oder zur Verbesserung von Prozessen verwendet. Keine eigene Branche, aber dennoch massiv vertreten sind zudem Ethiker, Philosophen und Soziologen und das sowohl auf der Bühne als auch im Publikum.
Die Anwenderunternehmen berichten, dass sie feste Prozesse eingerichtet haben, um KI verantwortungsvoll und ethisch einzusetzen. Dabei steht die Risikobewertung und das Verständnis von Datengenauigkeit und -vielfalt im Vordergrund. Einige Fragen, die zu Beginn eines KI-Projektes stehen sind daher: Woher kommen die Daten? Was bedeutet das? Haben wir einen Bias, also Vorurteile oder Verzerrungen? Sind die Daten stabil, oder verändern sie sich über die Zeit („drifting“)? Welche Risiken resultieren aus dem KI-Modell und dessen Entscheidungen? Diese Informationen werden in Data Cards und Model Cards dokumentiert.
Tatsächlich finden KI-Modelle inzwischen breite Anwendung, wobei die Entwicklung dieser Modelle häufig in den Händen kleiner, spezialisierter Teams innerhalb von Unternehmen liegt. Interessanterweise stammen die Anstöße zur Nutzung von KI oft aus verschiedenen Bereichen der Unternehmen selbst. Zwei Beispiele für Innovationen, die direkt aus der Belegschaft entstanden sind, umfassen ein Modell, das Piloten unterstützt, Windverhältnisse während eines Fluges präziser vorherzusagen, und ein weiteres Modell, das prognostiziert, welche Lebensmittel auf einem Flug konsumiert werden. Durch diese Voraussagen lässt sich das Gewicht an Bord optimieren und somit der Treibstoffverbrauch senken.
Die zentralen KI-Abteilungen beraten und helfen bei der Umsetzung. Diese kümmern sich auch um die Formulierung eines Verhaltenskodex („Code of Conduct“), damit die eigenen KI-Modelle zum individuellen regulatorischen Framework passen und eigene Besonderheiten berücksichtigen. In der Praxis treffen KI-Modelle aber in den wenigsten Unternehmen eigenständige Entscheidungen. Stattdessen bereiten sie Entscheidungen vor und liefern dafür gute Grundlagen. Die Entscheidung liegt aber noch bei den Menschen. In diesem Sinne ist KI ein (weiteres) Werkzeug.
Spannend ist die Frage, was passiert, wenn KI nicht mehr nur Werkzeug ist, sondern ein eigener Agent, also eine eigene Persönlichkeit mit eigenen Zielen und Plänen. Dieser Frage gehen Wissenschaftler derzeit nach. Diese Unterscheidung zwischen Werkzeug und Agent hat signifikante Implikationen, insbesondere in Bezug auf ethische und regulatorische Überlegungen.
Eine KI, die ein Werkzeug ist, unterstützt Menschen dabei, ihre Ziele zu erreichen. Eine KI, die ein Agent ist, hat eigene Ziele, die möglicherweise im Konflikt mit den Zielen der Menschen stehen. In diesem Sinne sind die „Large Language Models“, also z.B. ChatGPT, sehr intelligente Werkzeuge, denn in Ihrer Architektur fehlen Strukturen, die für die Verfolgung eigener Ziele nötig wären. Sie wirken dennoch auf manche Menschen bedrohlich, weil ihre Sprachgewandtheit an unserem Grundverständnis von Intelligenz rüttelt. Wir sind darauf konditioniert, Menschen, die sich sprachlich besonders gewandt ausdrücken können, für besonders intelligent zu halten.
Einige KI-Modelle sind bereits Agenten, aber sie sind noch auf spezielle Aufgaben beschränkt und nicht vollständig autonom. Beispiele sind die oben zitierten KIs von DeepMind, AlphaGo, AlphaZero etc. Ein anderes Beispiel ist Gran Turismo Sophy. AlphaGo und AlphaZero von DeepMind sind bekannt dafür, dass sie komplexe Spiele meistern, während Gran Turismo Sophy von Sony eine KI ist, die ein Echtzeit-Rennspiel beherrscht, wobei sie sich dabei menschlich und fair verhält. Alle genannten KI Agenten sind in ihrer jeweiligen Domäne besser als die besten menschlichen Spieler.
Die KI ist hierbei ein Agent, der ein primäres Ziel verfolgt: er möchte auf jeden Fall gewinnen. Ohne weitere Maßnahmen führt das zu boshaftem Verhalten gegenüber den Mitspielern. Das Forscherteam hinter Gran Turismo Sophy hat daher Strafen eingeführt, die analog der Strafen bei echten Autorennen von menschlichen Schiedsrichtern ausgesprochen wurden. Das besondere daran: die KI kann nicht vorhersehen, wann genau die menschlichen Schiedsrichter eine Strafe aussprechen. Diese unbekannte Komponente führt dazu, dass die KI signifikant vorsichtiger ist, als wenn die Regeln mathematisch präzise wären. Solche Ergebnisse sind wichtig, weil sie uns zeigen, wie man Agenten bauen kann, die kontrollierbar bleiben.
Spannend sind die jüngsten Experimente, die zeigen, wie KI-Agenten durch geeignete Anreize dazu gebracht werden können, außergewöhnliche und unerwartete Lösungen zu entwickeln. Die Forscher haben der KI Bonuspunkte für besonders kreatives Fahrverhalten gegeben. Wie hat die KI reagiert? Sie hat gelernt, das Fahrzeug bei voller Fahrt so ins Schleudern zu bringen, dass das Fahrzeug während einer Kurvendurchfahrt eine 360° Pirouette vollführt. In diesem Sinne erinnert die KI doch eher an unseren Labrador: sie tut alles für eine leckere Belohnung.
Was haben Sie für Fragen zu künstlicher Intelligenz? Setzen Sie KI in ihrem Unternehmen bereits ein oder sind Sie noch auf der Suche nach geeigneten Strategien? Ich freue mich auf den Dialog.