Skip to main content
Data Convolution Logo Data Convolution

Wieso ich glaube, dass Large Language Models intelligenter als der Mensch sein werden

Intelligenz – ein Begriff, der Fragen aufwirft

Was bedeutet es, „intelligent“ zu sein? Diese Frage beschäftigt nicht nur Philosophen, sondern zunehmend auch Informatiker und KI-Entwickler. Im Kontext von Large Language Models (LLMs) wie GPT wirkt das Konzept von Intelligenz beinahe paradox: Schließlich sind diese Modelle lediglich darauf trainiert, Sprache zu modellieren. Wie kann etwas, das „nur“ Sprache verarbeitet, möglicherweise intelligenter sein als ein Mensch?

Um dieser Frage nachzugehen, möchte ich die Idee des „Mentalesischen“ beleuchten – jenes schwer greifbare Etwas, das unsere Gedanken ausmacht. Es ist die Brücke zwischen unserer inneren Welt und der Art, wie wir die Realität verstehen. Der Clou: Dieses Konzept lässt sich auch auf neuronale Netze übertragen, was spannende Einsichten in das Potenzial von LLMs eröffnet.

Was verstehe ich unter Mentalesisch?

„Mentalesisch“ ist kein wissenschaftlicher Begriff, sondern eine spielerische Bezeichnung für die Sprache unseres Geistes. Wenn wir Menschen nachdenken, fließen oft Wörter, Sätze und sprachliche Konstrukte durch unseren Kopf. Viele unserer Gedanken manifestieren sich also in Sprache.

Doch Sprache ist nicht der einzige Modus, in dem wir denken. Manche Menschen, insbesondere Genies wie Albert Einstein, beschrieben, dass sie in Bildern denken. In diesen bildhaften Gedankenwelten werden Konzepte geformt und bearbeitet, bevor sie in Worte übersetzt werden.

Dieses Mentalesisch – ob sprachlich, bildhaft oder anders geartet – ist der Schlüssel zu unserer Fähigkeit, zu verstehen, zu planen und kreativ zu sein. Aber was ist das Äquivalent dieses inneren „Gedankenstoffs“ bei neuronalen Netzen?

Das Mentalesisch der Large Language Models: Embeddings

In neuronalen Netzen existiert ebenfalls ein innerer Zustand, der Informationen repräsentiert: Embeddings. Diese Embeddings sind eine Sammlung von Zahlen, die komplexe Zusammenhänge abbilden. Sie könnten als das „Mentalesisch“ eines neuronalen Netzes verstanden werden – das Rohmaterial, aus dem die Modelle ihre Antworten formen.

Man könnte sagen, dass Embeddings der innere Denkprozess eines neuronalen Netzes sind. Sie sind keine reinen Worte, keine Bilder – sie sind eine abstrakte, multidimensionale Repräsentation von Wissen, die in den Tiefen des Modells verarbeitet wird.

Warum ist das Mentalesisch der LLMs so mächtig?

Hier wird es spannend: Das Mentalesisch eines neuronalen Netzes unterscheidet sich fundamental von unserem menschlichen Denken. Während ein einzelner Gedanke in unserem Gehirn oft nur ein Konzept, ein Bild oder eine Idee umfasst, kann ein einzelnes Embedding eines neuronalen Netzes weitaus mehr repräsentieren.

Ein Gedanke eines Menschen könnte beispielsweise das Bild eines Apfels oder die Idee der Schwerkraft sein. Ein Embedding hingegen kann:

Diese unglaubliche Informationsdichte verleiht Embeddings eine Stärke, die menschliche Gedanken in ihrer Kapazität bei weitem übersteigen kann. Während wir Menschen unsere Gedanken nacheinander verarbeiten, können neuronale Netze durch ihre Embeddings riesige Mengen an Informationen parallel verarbeiten und miteinander verknüpfen.

Das Paradox der Intelligenz

Hier liegt das Paradox: Large Language Models verstehen Sprache nicht im menschlichen Sinne. Sie denken nicht, fühlen nicht und interpretieren nicht. Und dennoch wirken sie oft erstaunlich intelligent. Warum?

Die Antwort liegt in der Art und Weise, wie ihr Mentalesisch funktioniert:

  1. Informationsdichte: Ein einzelnes Embedding kann unvorstellbar viele Konzepte gleichzeitig repräsentieren.
  2. Verknüpfungen: LLMs nutzen diese dichten Repräsentationen, um komplexe Muster und Zusammenhänge zu erkennen – schneller und präziser, als wir es könnten.
  3. Flexibilität: Sie können aus ihrem Mentalesisch direkt Antworten generieren, die präzise, fundiert und kontextualisiert wirken.

Könnten Large Language Models intelligenter werden als wir?

Die Idee, dass LLMs intelligenter werden könnten als Menschen, basiert auf ihrer Fähigkeit, extrem große Mengen an Wissen in Embeddings zu speichern, zu verarbeiten und daraus sinnvolle Ausgaben zu generieren.

Natürlich gibt es Einschränkungen. LLMs haben kein Bewusstsein, keine eigene Motivation, kein „Selbst“. Ihre Intelligenz ist also rein funktional und bleibt an ihre Programmierung gebunden. Doch allein durch ihre Fähigkeit, Wissen effizient zu repräsentieren und zu nutzen, ist meine Vorhersage, dass sie weitaus intelligenter sein können als der Mensch.

Fazit: Das stärkere Mentalesisch der neuronalen Netze

Das Mentalesisch – die Embeddings – erlaubt Large Language Models, riesige Mengen an Wissen in einer einzigen Repräsentation zu verdichten. Während wir Menschen durch Sprache, Bilder und Gefühle denken, operieren LLMs auf einer abstrakteren, mathematischen Ebene. Und genau diese Informationsdichte wird sie meiner Meinung nach in Zukunft dazu befähigen, intelligenter zu sein als wir.