Trotz der brisant anmutenden Thematik ist Künstliche Intelligenz – oder das Nachahmen kognitiver Fähigkeiten durch einen menschenähnlichen Roboter – an sich keine neue Idee. Ganz im Gegenteil handelt es sich dabei sogar um einen sehr alten Menschheitstraum, dessen Wurzeln bis in die griechische Mythologie und in die Antike zurückreichen. Schon damals gab es Ansätze, die man mit unserem heutigen Verständnis von Künstlicher Intelligenz in Verbindung bringen könnte: Ausdruck eines Wunschs nach einem übermächtigen Helfer, sollten die idealisierten Automaten und humanoiden Maschinenwesen unser menschliches Dasein erleichtern.

Bahnbrechende Industrialisierung

Oft aber blieb es bei theoretisch skizzierten Fantasien – denn ihre praktische Umsetzung in Maschinenform war zur damaligen Zeit meist nicht möglich. Bemerkenswerterweise jedoch vermochten die Ideen die Menschheitsgeschichte über Jahrhunderte hinweg zu transzendieren, um seit der Industrialisierung in modernen Technologien Gestalt anzunehmen.

Den Anfang für unsere heutige digitale Infrastruktur machten Unterwasserkabel; das erste stabil funktionierende Transatlantikkabel wurde 1866 verlegt. Bereits Anfang des 20. Jahrhunderts waren rund 80 Prozent des globalen Kabelnetzwerks im Besitz des britischen Weltreichs, das die Verkabelung der Welt massiv vorangetrieben hatte.

Im Zuge einer Effektivitätsbewegung in den Industrienationen, vor allem in Großbritannien und in den USA, setzte man in Produktionsprozessen in der Folge zunehmend Roboter ein. Während des Ersten Weltkriegs spielten automatisierte Technologien in der Kriegsführung erstmals eine größere Rolle, und auch danach stieg der Bedarf an Massenproduktion. Gleichzeitig wuchs das Bewusstsein für die Macht und mögliche Zerstörungskraft automatisierter Technologien, die sogar das Ende der Menschheit bedeuten könnten.

In Kunst und Kultur

Kreative Ideen bereiteten oftmals den Weg für Anwendungen, die sich erst später umsetzen ließen. Auch der Begriff »Roboter« hat seinen Ursprung in der Kunst: Als Wortneuschöpfung tauchte er erstmals 1920 in einem Science-Fiction-Theaterstück des tschechischen Dramatikers Karel Čapek auf. Darin beschrieb Čapek künstlich hergestellte, humanoide Lebewesen, die als Sklaven zunächst zur Produktionssteigerung in Fabriken und auf Kriegsfeldern eingesetzt wurden, durch eine Revolution schließlich aber die Herrschaft über die Menschheit erlangten.

Im Tschechischen steht das Wort »robota« für Zwangs- oder Fronarbeit. Mit dem weltweiten Erfolg des Theaterstücks und dessen Übersetzung in 30 Sprachen bald nach Veröffentlichung löste der Begriff bis dato gebräuchliche Bezeichnungen wie »Automaton« oder »Android« ab.

Die kulturelle Thematisierung von KI hielt auch in den Folgejahrzehnten an, genauere Unterschiede zwischen Begrifflichkeiten wie Robotern, Androiden und Cyborgs bildeten sich heraus. Wegweisend waren hier die Werke des russisch-amerikanischen Schriftstellers Isaac Asimov: In seiner Kurzgeschichte »Runaround« formulierte er 1942 drei Robotergesetze, die auch heute noch die ethischen Grundlagen für den Umgang mit intelligenten Maschinen bilden.

Beschleunigte Berechnungen

Wahrlich bahnbrechend für die Praxisanwendung war die Erfindung des ersten programmierbaren digitalen Rechners durch Konrad Zuse im Jahr 1939. Die infolgedessen vor allem für die Automobilindustrie gebauten Maschinen ließen auch die Idee eines autonom agierenden, elektronischen Gehirns näher rücken.

Viel beachtete Spekulationen über das Denkvermögen von Maschinen stellte der britische Mathematiker Alan Turing im Jahr 1950 an: Wenn Menschen mithilfe ihrer kognitiven Fähigkeiten und auf der Grundlage von Informationen vernunftbasierte Entscheidungen treffen können, sollten Maschinen eines Tages nicht auch dazu imstande sein? Vor dem Hintergrund dieser Fragestellung entwarf Turing seinen bekannten Turing-Test zur Unterscheidung zwischen menschlicher und maschineller Intelligenz.

Die tatsächliche Geburtsstunde für den Forschungsbereich KI war sodann die Dartmouth-Konferenz, die 1956 am gleichnamigen College in Hanover, New Hampshire stattfand. Mit dem Computerprogramm »Logic Theorist« wurde hier erstmals ein automatisierter Ansatz vorgestellt, wie man menschliche Intelligenz nachbauen könnte. Im Zuge dieser Konferenz erhielt die neu entstandene akademische Disziplin der »denkenden Maschinen« erstmals die Bezeichnung »Artificial Intelligence«.

Mit der verbesserten Rechenleistung von PCs folgten weitere Innovationen, die das öffentliche Interesse an KI wachsen ließen. US-Regierungsinstitutionen wie DARPA, kurz für Defense Advanced Research Projects Agency, stockten ab Anfang der 1960er Jahre ihre Finanzierung für KI-Forschung erheblich auf. Nur wenige Jahre später erblickte 1969 »Shakey The Robot« das Licht der Welt – die Roboterrevolution nahm ihren Lauf.

Optimismus, Ernüchterung … und Durchbruch

Doch die optimistischen Erwartungen, Roboter könnten schon bald einen Großteil menschlicher Arbeit verrichten, bewahrheiteten sich nicht. Zu unflexibel war die vermeintliche Zukunftstechnologie, zu niedrig die Rechenleistung und Speicherkapazität. So setzte Mitte der 1970er Jahre der erste KI-Winter ein, der erst in den 1980er Jahren mit einer revolutionären Neuausrichtung der Technologie enden sollte: Weltweit fanden nun erstmals sogenannte Expertensysteme Anwendung in der Industrie, und auch selbstlernende Systeme wurden immer beliebter.

Und obwohl von 1987 bis 1993 ein zweiter KI-Winter herrschte, wurden bis um die Jahrtausendwende dennoch viele der einst so ambitionierten Ziele erreicht. Der Ansatz, einzelne Aufgabenstellungen mithilfe von spezialisierten KI-Anwendungen zu lösen, stellte sich als erfolgreicher heraus als das bisherige Vorhaben, eine umfassende Künstliche Intelligenz zu erschaffen. Auch die Idee einer KI als Roboter mit separaten sensomotorischen Fähigkeiten war somit leichter realisierbar.

Dank leistungsstarker Computerhardware und der Sammlung großer Datenmengen entwickelte sich KI und insbesondere »Machine Learning« Anfang der Nullerjahre so zu einer wissenschaftlich fundierten akademischen Disziplin mit Anwendungen in zahlreichen Bereichen. Ab 2010 sorgte die Erforschung von Deep-Learning-Verfahren schließlich für einen anhaltenden Boom.

In immer mehr Bereichen – etwa beim Schachspiel, als autonome Fahrzeuge oder bei der Nachahmung unseres Kurzzeitgedächtnisses – konnten KI-Systeme mit menschlichem Lernen mithalten oder sogar triumphieren. Im kommerziellen Bereich sorgt insbesondere die Robotik-Firma Boston Dynamics regelmäßig für Aufsehen mit neuen Robotererfindungen, die auch von Unternehmen wie SpaceX genutzt werden.

KI und die Sorgen von morgen

Inzwischen finden sich datenbasierte KI-Anwendungen in den verschiedensten Anwendungen – als Trainingsmodelle in der Ökologie, zur Automatisierung unserer Arbeitswelt, als Hilfestellung in der Medizin, in der Smart City im öffentlichen und in Smart Homes im privaten Bereich, als kreatives Tool in der Kunst oder in der wirtschaftlichen Praxis.

Die mittlerweile nahezu globale KI-Infrastruktur wurde durch Fortschritte in der Mikrochipindustrie ermöglicht; sie beruht auf dem Ausbau der weltweiten digitalen Infrastruktur samt Rechenzentren und weltumspannenden Glasfaserkabeln, was aktuell ebenso mit Umweltzerstörung sowie prekären Arbeitsbedingungen von Menschen vorwiegend im Globalen Süden einhergeht.

So ist KI im 21. Jahrhundert Teil des Lebensalltags der meisten Menschen geworden und gilt gleichzeitig als wichtigste Zukunftstechnologie und eine der größten aktuellen Herausforderungen. Denn die Risiken – genau wie die Technologie selbst – sind menschengemacht, und die Diskussion über ihre ethischen und gesamtgesellschaftlichen Auswirkungen ist nicht erst seit der Veröffentlichung von ChatGPT in vollem Gang.

Ein erster Vorschlag für ein internationales KI-Regelwerk wurde unlängst in der EU mit dem »Artificial Intelligence Act« gemacht. Darüber hinaus bleibt abzuwarten, wie sich der Fortschritt bezüglich Datenart und -volumen, Speicherkosten und Rechenleistung gestaltet. Bei optimaler gleichzeitiger Entwicklung in allen drei Aspekten wird sich das enorme Potenzial von KI-Systemen dann auf vielleicht unvorhergesehenen Wegen entfalten.

Dieser Text ist zuerst erschienen in Politik & Kultur 04/2023.