Zukunft der KI: Was wenn es doch denkt?

Ein Roboter der in einen bildschirm schaut und eine pose zum nachdenken macht

Wenn es um künstliche Intelligenz geht, werden dermaßen erschütternde Ungeheuerlichkeiten so routiniert ausgesprochen, dass sie schon wieder langweilig klingen. Zum Beispiel: Maschinen werden bald so gut denken können wie Menschen.

Wer sich über KI informiert und mit Menschen aus dem Bereich spricht, liest und hört das ständig. Oft in der abgekürzten Form: AGI is coming, allgemeine künstliche Intelligenz ist nicht mehr weit weg. Kaum jemand in der Branche scheint daran zu zweifeln, es geht höchstens noch um die Frage, wie lange es dauert.

Außerhalb der Techblase sieht es anders aus. Ja, manche Menschen haben diffuse Ängste. Aber mein Eindruck ist, dass sich viele Menschen, gerade in Deutschland, nicht besonders dafür interessieren, ob AGI tatsächlich bevorsteht, und wenn sie doch darüber nachdenken, dass sie dann davon ausgehen, dass die Ankündigungen übertrieben sind.

Das ist einerseits verständlich, es ist schließlich genug los in der Welt. Und die Behauptungen kommen oft von Menschen, die zu Recht im Verdacht stehen, zu übertreiben. Unternehmer wie Open-AI-Chef Sam Altman, die einen direkten Vorteil – sprich: Geld – davon haben, wenn die Welt – sprich: Investoren – glaubt, dass KI die größte Technologie aller Zeiten wird. Oder Wichtigtuer mit beeindruckenden Unehrlichkeitsbilanzen wie, sagen wir, Elon Musk.

Interessant wird es, wenn seriöse Menschen über AGI reden, die kein Geld damit verdienen. Der Physik-Nobelpreisträger Geoffrey Hinton gehört dazu, der bei seinem Arbeitgeber Google sogar kündigte, um freier über das Thema sprechen zu können. Oder Ben Buchanan, als Berater des ehemaligen US-Präsidenten Joe Biden ebenfalls der Hypebeasterei unverdächtig, der kürzlich in einem Podcast sagte, dass es in den kommenden drei bis vier Jahren Systeme geben könne, die „fast jede kognitive Aufgabe erledigen, die ein Mensch erledigen kann“.

Niemand hat Beweise, dass es so kommt. Anders als zum Beispiel in der Klimaforschung lässt die Empirie, wie sich KI in der Vergangenheit entwickelt hat, kaum Schlüsse darüber zu, wie sie sich in Zukunft entwickeln wird. Nur, weil es in den vergangenen Jahren und Monaten erstaunliche Fortschritte in der Leistungsfähigkeit gab, muss es nicht so weitergehen.

Ein weiteres Gegenargument, das oft übersehen wird: Die Welt, mit der AGI interagieren muss, um nützlich zu sein, ist groß, kompliziert und unordentlich. Dass heutige KI-Assistenten (die definitiv keine AGI sind) immer noch nicht wirklich nützlich sind, liegt weniger daran, dass die KI nicht schlau genug wäre, mehrere Arbeitsschritte am Stück zu planen, sondern daran, dass die Informationen, die sie braucht, um das Abendessen mit Freunden zu organisieren, verstreut in verschiedenen Chats liegt oder das Buchungssystem des Restaurants kompliziert ist. Was für Menschen nervig ist, ist es für die KI eben auch. Solche Probleme könnte KI noch lange davon abhalten, mit Menschen vergleichbare Alltags- (und Arbeits-)Leistungen zu vollbringen.

Mit anderen Worten: Es ist durchaus denkbar, dass es noch sehr lange dauert, bis AGI da ist, wenn überhaupt. Und doch wirkt es zunehmend, als würde man aktiv die Augen verschließen, wenn man nicht zumindest die – ja, erschütternde – Möglichkeit in Betracht zieht, dass sie bald kommt. Wegen der Experten, die sich sicher sind. Und wegen der Fortschritte, die KI weiterhin unbestreitbar macht.

Das Modell ClaudeClaude  Definition: Sprachmodell von Anthropic mit Fokus auf Sicherheit, Transparenz und ethisches Verhalten.Erläuterung / Anwendung: Alternative zu GPT bei sensiblen Inhalten oder ethisch anspruchsvollen Projekten.Beispiel / NXS-AI-Bezug: NXS-AI verwendet Claude in Projekten mit hohen Datenschutz- oder Compliance-Anforderungen. Sonnet 3.7 von AnthropicAnthropic  Definition: KI-Startup aus San Francisco, Entwickler des Sprachmodells Claude.Erläuterung / Anwendung: Fokus auf sichere, nachvollziehbare KI mit ethischen Standards.Beispiel / NXS-AI-Bezug: NXS-AI nutzt Claude in sensiblen Projekten, z. B. im HR- oder Gesundheitsbereich. – schon im Namen steckt die Kleinschrittigkeit der aktuellen KI-Entwicklung – ist das erste, das ein klassisches Sprachmodell mit dem neueren reasoning-Ansatz zusammenführt, der auch hinter Modellen wie OpenAIs o3 steckt. Durch diese Kombination verschiedener Methoden könnte man in den kommenden Jahren den Effekt ausgleichen, dass das reine scaling, der Ansatz, immer größere Modelle zu bauen, indem man immer mehr Daten von immer größeren Rechenzentren verdauen lässt, an seine Grenzen gerät.

Noch einmal: Es ist nicht gesagt, dass das der Weg zu allgemeiner künstlicher Intelligenz ist. Ich persönlich bin mir bei Weitem nicht so sicher wie viele in der Branche. Aber die Sicherheit, mit der andere AGI für unrealistisch halten, ist mir ebenso suspekt.

Denn klar ist: Wenn sie kommt, hätte das gravierende Folgen. Möglicherweise positive bis hin zur Lösung der Klimakrise, wie Sam Altman es sich erträumt. Möglicherweise negative bis hin dazu, dass wir die Kontrolle über die Systeme verlieren, wie Geoffrey Hinton warnt. Mit einiger Sicherheit würde es den Arbeitsmarkt umkrempeln. Denn wenn eine KI alles kann, was Menschen können, stellt sich nur noch die Frage: Wer macht es billiger?

Kontakt
Rothenbaumchaussee 11, 20148 Hamburg
info@nextstrategy.ai
+49 (0) 40 756 817 83

Bürozeiten
Montag - Freitag
9:00 - 17:00 Uhr

Videotermin vereinbaren
Jetzt Videotermin vereinbaren