
Wer ein Abo bei Netflix besitzt, wundert sich schon lange nicht mehr darüber: Immer wieder werden Filme auf dem Bildschirm angeboten, die den Geschmack der Abonnentin oder des Abonnenten treffen. Ebenso sieht es bei der Werbung aus: Wer gerade eine Städtereise gebucht hat, bei dem ploppen in der nächsten Zeit ständig Angebote für derlei Reisen auf. Wie funktioniert das? Und wie schaffen es Maschinen, sinnvolle Antworten in korrekter Sprache zu geben? Und welches Risiko birgt die Künstliche Intelligenz?
„Künstliche Intelligenz: Von Netflix und ChatGPT über Vektorräume bis zur dunklen Seite der Macht“ lautete der Titel des jüngsten Vortrags der Reihe „Uni macht Schule“ am Gymnasium Neureut. Referent war Professor Dr. Andreas Weber, Leiter des Studiengangs „Data Science und Künstliche Intelligenz“ an der Dualen Hochschule Baden-Württemberg in Karlsruhe. Der Mathematiker, der viele Jahre bei SAP an der Entwicklung von Software gearbeitet hat, bevor er Professor an der DHBW wurde, fesselte die Zuhörerinnen und Zuhörer mit dem Blick in die „Black Box“ der KI.
Schon in den 50er-Jahren des vergangenen Jahrhunderts gab es die Idee der maschinellen Intelligenz; Alan Turing forschte zu der Frage, ob eine Maschine im Gespräch menschliches Verhalten imitieren kann. Heute begegnen wir immer wieder dem Turing-Test, der prüft, ob wir verschnörkelte und versteckte Buchstaben erkennen und der uns somit als Menschen identifiziert. In der Entwicklung von KI kam es immer wieder zu einem Auf und Ab; Professor Weber nennt die Krisen und Enttäuschungen „KI-Winter“. Seit 2018 gibt es GPT (generative pre-trained transformer) und als ChatGPT 2022 an die Öffentlichkeit ging, hatte es in kürzester Zeit eine Million User. „KI aber“, so sagt der Referent, „geht weit über ChatGPT hinaus“. So ist sie beispielsweise beim autonomen Fahren, bei der Gesichtserkennung, der medizinischen Diagnostik oder bei der Predictive Maintenance – der Prognose, wann unter anderem eine Produktionsmaschine ausfallen wird – zu finden.
Dies alles funktioniert, weil die Maschinen dazu gebracht werden zu lernen. Vom Menschen hergestellte Algorithmen, also Anleitungen, trainieren die Künstliche Intelligenz. Als Beispiel nennt Professor Weber eine Immobilienwertentwicklung: Die KI soll mithilfe von Trainingsdaten eine Funktion entwickeln, mit der der Wert von Immobilien berechnet werden kann. Es entsteht so die Funktion f, die verschiedene Variablen, wie Grundfläche, Baujahr und Lage, berücksichtigt und den Wert des Hauses oder der Wohnung dann errechnet.
Wie aber kommt es zur Verarbeitung von Sprache durch die KI, zum „Verstehen“ von Texten? Dies geschieht durch Vektorräume. Einfach ausgedrückt werden unstrukturierte Daten – wie Texte oder Bilder – numerisch als Vektoren ausgedrückt. Die Grundidee ist, dass aus Worten und Texten Vektoren erzeugt werden und Texte mit ähnlicher Bedeutung zu ähnlichen Vektoren führen. Professor Weber machte dies folgendermaßen deutlich: In einem Vektorraum haben verschiedene Tiernamen unterschiedliche Vektoren mit unterschiedlicher Lage, ebenso Früchte. Der Vektor für Löwe sollte im Vektorraum näher am Vektor für das Wort Katze liegen als am Vektor für das Wort Hund. Noch weiter weg vom Löwen ist der Vektor für Apfel. Der Word2Vec-Algorithmus beispielsweise wandelt die Wörter in Vektoren um und stellt ihre Bedeutung fest, indem er Wörter, die häufig in ähnlichem Kontext gebraucht werden, im mehrdimensionalen Vektorraum in die Nähe zueinander stellt. Damit die KI Sprache aber „verstehen“ und sinnvoll nutzen kann, sind künstliche neuronale Netze notwendig – dem menschlichen Gehirn sehr ähnlich. Sie ermöglichen es, unterschiedliche Datenquellen wie Bilder, Töne, Texte, Tabellen oder Zeitreihen zu interpretieren und Informationen oder Muster zu extrahieren, um diese dann auf unbekannte Daten anzuwenden. Das Modell des Neuronalen Netzes besteht aus Knoten, auch Neuronen genannt, die zunächst zum Lernen Informationen von anderen Neuronen oder von außen aufnehmen, modifizieren und als Ergebnis wieder ausgeben. „Das Signal wird durch die Neuronen verstärkt oder abgeschwächt“, so Professor Weber. Dabei geschehen auch Fehler. Die Gewichtung des Signals wird im nächsten Schritt so verändert, dass der Fehler minimiert wird. Durch diese Korrekturprozesse „lernt“ das System immer besser, von späteren Eingabedaten auf das Ergebnis zu schließen.
Der Vorgang ist unglaublich komplex „und die Verantwortung dieser Firmen ist riesig“, so Professor Weber. „Dieses Werkzeug kann beispielsweise von Staaten gezielt zur Desinformation und zur Polarisierung von Gesellschaften genutzt werden“, warnt der Referent. So seien jüngst Webseiten eines pro-russischen Netzwerks nur angelegt worden, um Sprachmodelle mit den Inhalten von Propaganda und Desinformation zu füttern. Der Experte nannte auch die Gefahr von Prompt Injections, Cyberangriffen, die dazu führen, dass das System Schutzmaßnahmen ignoriert und sensible Daten ausgibt. Er verwies auch darauf, dass Bilderkennungssysteme noch lange nicht ausgereift sind. So kann es beim Autonomen Fahren eine tödliche Gefahr sein, wenn Verkehrsschilder nicht erkannt werden, weil sie beschmiert oder beklebt sind oder ihre Lage verändert ist. Nicht zuletzt betonte Professor Weber die Energieintensität der Künstlichen Intelligenz. So gibt OpenAI die Anzahl der Anfragen pro Tag mit 2,5 Milliarden an. Pro Anfrage, so Weber, würden 0,34 Wattstunden verbraucht. Man kann also davon ausgehen, dass der Stromverbrauch in den kommenden Jahren gewaltig steigen wird, selbst wenn die Systeme energieeffizienter würden. Wie diese Energie klimafreundlich hergestellt werden soll, bleibt offen.
Professor Weber macht an diesem Abend auch ein wenig Werbung für seinen Studiengang „Data Science und Künstliche Intelligenz“. Denn: Bei all diesen Gefahren und Risiken ist es besonders wichtig, dass kritische junge Menschen sich mit der Materie auskennen, die Gefahren minimieren und auf eine politische Regulierung drängen. Er selbst bleibt in dieser Hinsicht nachdenklich. Seine Antwort auf die Frage, ob es möglich ist, KI zu regulieren, lautet: „Ich blicke da nicht nur positiv in die Zukunft. Die Risiken sind da.“ (mh)