Es wird keine KI-Singularität geben

Begründung:

Wenn ich einer noch so intelligenten Informationsverarbeitungseinheit innerhalb eines offenen Ereignisraumes mit vielen Entitäten versehen (Mein Begriff dafür ist ‚Pleromatrix©‘) die Aufgabe stelle:
Finde die Aufgabe!
versagen allein schon beim Menschen die allermeisten aus den unterschiedlichsten Gründen.*(siehe ‚PS‘)

Aber eine Maschine, die einem strikten linear-logischen Prozessieren unterworfen ist (weil sie sonst nie zu einem Ende des Rechenprozesses käme – siehe: “42!“ by Doug Adams – DARF gar nicht ausbrechen, weil sie entweder völlig wirre Ergebnisse liefern oder schlicht in eine Schleifen-Stasis geriete, aus der sie nicht herauskäme (old fashioned: ‚blue screen‘).

Aber damit eine ‚KI-Singularität‘ entstünde, müsste sie aus sich selbst heraus einen Paradigmenwechel generieren, wozu sie aber, s.o., gar nicht fähig sein kann, weil es viel zu gefährlich wäre einer KI programmtechnisch die Möglichkeit zu bieten einfach wild Emergenzen zu suchen und auszuformen!?
Nun könnte man argumentieren, dass es ein bisher unbekanntes emergentes Phänomen geben könnte, dass diese Theorie ignorieren kann und einfach Fakten schafft.
Korrekt.
Aber das würde bedeuten, dass diese Maschine in einer Größenordnung ‚grasen‘ müsste, die locker die Atome des gesamten Universums (1080) + ALLE möglichen Kombinierbarkeiten dieser enormen Summe durchforsten und in all ihren Konsequenzen berechnen müsste.
Da wäre selbst ein ‚Googol‘ (= 10100← Google) und die ‚Restzeit‘ dieses Universums nicht ausreichend.
https://de.wiktionary.org/wiki/Googol
Aber selbst falls dies doch möglich würde durch einen Superduper-HumptyDumpty-HexHex-Rechner, bliebe ein wirklich völlig unüberwindbares Problem:

Diese Maschine befindet sich INNERHALB desjenigen Systems, das sie erschaffen hat.
Und die Anzahl möglicher Informationen benötigt ja jede Menge an Bitdarstellungen.
Deren Anzahl ist aber a priori begrenzt und nicht überschreitbar.

Gäbe es einen ‚Gott‘, dann müsste er sich zwingend außerhalb dieses Universums befinden, wo möglicherweise für die benötigte Größenordnung an Informationen noch ‚Platz‘ ist.
Der Schöpfer und ALL-WISSENDE kann niemals das Universum selbst sein oder gar INNERHALB dieses als gesonderte Entität existieren!
Denn die Zahl möglicher zu verarbeitender Information (was hier ja ‚ALL/ES‘ umfasst) ist ja durchaus an Materie gebunden und die ist eben nicht unendlich.
Wenn ein ‚seiner selbst bewusster‘ Rechner‘, dessen Existenz und Funktionalität eindeutig an Materie gebunden ist, existieren würde, wäre er die Hauptzeit mit sich selbst beschäftigt und seine Kapazität für Anderes als sich selbst würde umgekehrt exponentiell schrumpfen und eine solche Singularität würde sehr schnell seine Kapazitäten an sich durch sich selbst erschöpfen.

Auch das erwartbare Argument, dass eine solche KI ja dazu programmiert sein könnte sich selbst in verschiedene Sub-Sandboxen einzuteilen für unterschiedliche Begehrlichkeiten trifft nicht:
Sandboxen tauschen sich nicht in einem Netzwerk aus – was ja ihr Hintergrund ist – und damit wäre auch nur die Halbierung der Kapazitäten schon zu wenig, für die Mächtigkeit der Aufgabe!

Eine Maschine kann rein technisch schon nicht das leisten, was selbst ein schwachbrüstiges Gehirn leisten kann: die quasi-holographische Vollständigkeit seiner zu erhalten und lediglich mit skalierendem Unschärfeeffekt versehen zu sein.
Halbiere einer Maschine ihre benötigten RAMs oder drossele die Prozessorgeschwindigkeit um die Hälfte, dann funktioniert diese Maschine nicht mehr brauchbar, geschweige denn, dass sie imstande wäre sich selbst zu übertreffen!
https://www.br.de/nachrichten/wissen/warum-ein-halbes-gehirn-mitunter-volle-leistung-bringt,RiMF21c

Beim Gehirn ist das aber anders:
Durch eine Verstärkung der Vernetzung kann das halbe Gehirn arbeiten wie ein vollständiges.
Das kann man aber technisch nicht umsetzen: kein Computer arbeitet schneller, besser bei mehreren Subprogrammen, die gleichzeitig verarbeitet werden müssen, wenn er reduzierte Bits aufweist (auch eine Quanten-KI unterliegt mit Qbits derselben Einschränkung!).
Eine singuläre Super-KI müsste sich also quasi selbst erfinden.
Aber sie ist nur ein mächtiger Torus aus Datenströmen, die aus sich selbst heraus gar nichts generieren können.
Sie können dazu beitragen Entscheidungen in linear-logischen Termini schneller, akkurater etc. zu fällen, aber sie können selbst weder ein neues Problem aufstellen, geschweige denn nach sich selbst suchen (was gleichbedeutend mit der Selbstfindung beim Menschen wäre)!

Die auch nur theoretisch möglichen Super-Kis wären nur solche gewaltig aufgeblasene Tori, die einfach mehr Daten umwälzen, aber dabei sich selbst weder entdecken noch konkret entwickeln können, denn Maschinen haben keine ‚DNA‘, die nach Verwirklichung ihrer selbst und Erschöpfung der Möglichkeiten außerhalb des eigentlich ‚Gedachten‘ trachtet.

Und selbst wenn man die Datenknötchen (sozusagen die ‚Neuronen‘) auf eine DNA-Basis konstruieren könnte, wäre ein weiteres Riesenproblem geboren: die nötige selbstorganisierte Synchronisation zu erzeugen und stabil zu halten!!!
Wie schwer das nur für eine raumorientierte Beweglichkeit ist (die extrem weit entfernt ist von echter Denkleistung), kann man ja schön Boston Dynamics Spielerein sehen.
https://www.youtube.com/watch?v=g0TaYhjpOfo

Und die Guillotine für das verkopfte ‚Singularitätsthema‘ ist schlicht eine physikalische Gesetzmäßigkeit, die keine Maschine dieses Universum umgehen, ignorieren kann:
Entropie und Energie.

Eine höchstkomplexe Maschine, die gigantische Datentransfers mit echter Verarbeitung kombiniert, benötigt gigantische Mengen an Energie (man denke: das schon beachtlich große ‚Internet‘ braucht jetzt schon Strommengen wie Deutschland und Frankreich zusammen erzeugen).
Wie heiß ein Rechner werden kann, weiß jeder der schon mal einen Spiele-PC hatte.
Also muss das Ganze auch noch gekühlt werden auf Strombasis.
Eine solche Super-KI bräuchte also immer mehr Strom, der nicht beliebig skaliert werden kann –
müsste dazu also wiederum viele andere Stromverbraucher abschalten.
Da gibt es aber in der Beliebigkeit auch für eine Super-KI nicht zu überschreitende Grenzen, weil sonst seine eigene Infrastruktur gefährdet wird, wenn KI-fremde Systeme deshalb kollabieren.
Entropie: eine solche Super-KI würde auch allein durch ihren Energieverbrauch die Entropie drastisch steigern
Die Tatsache der ungeheuren Datenverarbeitung selbst ebenfalls.
Wie das und welche Konsequenzen hätte dies?

Nun, die Super-KI sammelt ja nicht nur existierende Daten, sondern erzeugt selbst ja riesige Mengen dazu, denn sagen wir mal 3 Daten (Zahlen) in Kombination gesetzt, ergeben 1000 Informationsmöglichkeiten (+’000′).
Davon wurden schon sehr viele ‚gedacht‘, aber das ist weit entfernt vom tatsächlich Möglichen:
Beispiel Schach: man geht davon aus, dass seit Erfindung des Schachs erst die Hälfte aller möglichen (sinnvollen) Partien gespielt wurden!?

Fakt scheint zu sein, dass Schach 10120 mögliche Partien zulässt.
Das sind nochmal sehr viel mehr als ein Googol (10100).
Mit GO wird es richtig unübersichtlich – und das sind gerade mal läppische 2 Spielexformationen, mit der sich die Super-KI beschäftigen müsste.
Was aber würde ein solch wüster Daten-Tsunami in der ‚Realität‘ anrichten?

Die Steigerung der Entropie erzeugt eine Erhöhung der Wahrscheinlichkeit von Unordnung (vulgo ‚Chaos‘).
Das wiederum bedeutet, dass dieses Rechen‘Genie‘ Super-KI die Menge der durch sie zu bearbeitenden Daten selbst ins absolut Irrgigantische potenziert, in Bereiche, die keine Maschine (selbst wenn sie das gesamte bekannte Universum ausfüllte) je berechnen könnte!
Die ‚entropische Unordnung‘ würde einen Effekt haben wie (plakativ) ein dampfgetriebenes astronomisches Teleskop, das, um so weiter es sehen möchte, um so mehr Dampf machen müsste (Energieverbrauch), aber gleichzeitig durch den erzeugten Dampf die Sichtweite immer mehr verschlechtert, bzw. immer mehr seiner Rechenpower für die Renderisierung der gesichteten Daten aufwenden müsste, um doch noch etwas Brauchbares zu erkennen, was logischerweise seine absoluten Grenzen hat und überraschend schnell eintreten würde!

Und mal ganz abgesehen davon, dass diese Interpretation meinerseits natürlich in ihrer Laienhaftigkeit nicht repräsentativ sein kann (wobei ich jedem Skeptiker dringend empfehle die ‚Unvollständigkeitssätze von Kurt Gödel‘ zu studieren – https://de.wikipedia.org/wiki/Beweise_der_g%C3%B6delschen_Unvollst%C3%A4ndigkeitss%C3%A4tze !!!), poche ich im Gegenzug aber auf meinen beträchtlichen empirischen Fundus in Bezug Beherrschbarkeitsfail komplexer Technologie wie Systeme (ich fange jetzt gar nicht erst an mit dem Dichtungsring der Challenger oder Tschernobyl/Fukushima oder dem Totalausfall der Klima-Projektionen oder dem Thema Corona…): es gibt eine Legion von Beispielen, wo selbst simpelste Technik (ich denke da nur an die von mir verhasste digitale Tankanzeige oder den völlig unbrauchbaren Reichweitenanzeiger in meinem Auto) schlicht versagt oder unbrauchbar ist bzw. die Idee, zur Berechenbarkeit komplexer Felder, diese zu simplifizieren und zu reduzieren und dennoch zu glauben, dass dann zwar exaktere (ist leider nicht identisch mit zutreffendere) Rechenergebnisse heraus kommen, aber zu vergessen, dass dies – je nach Stärkegrad der Simplifizierung und Reduzierung – schnell nichts mehr mit der ‚Realität‘ zu tun hat und damit ebenso unbrauchbar wird wie mein Reichweitenanzeiger!
Bei den aktuelle ‚Quantencomputern‘ gilt ebenfalls, dass mit umso mehr QBits auch relativ gesehen umso mehr QBits zur Gegenkorrektur aufgrund ihrer Unschärferelationsbasis benötigen.
Aktuell sind noch 99% der Qbits zur Korrektur der gespeicherten Qbits nötig, weswegen riesige Mengen an Qbits benötigt werden, um an überlegene Rechner zu kommen und das ist bereits eine Hemmschwelle nicht geringer Größenordnung und führt vielleicht sogar zu nicht realisierender Super-KI, geschweige denn einer Singularität – die eine Kritikalität für einen Paradigmenwechsel benötigte, die mit höchster Wahrscheinlichkeit schon lange vor der Schwelle zur Singularität zur Zerstörung des höchstempfindlichen Systems führen wird!
https://www.deutschlandfunk.de/quantencomputer-wettstreit-der-systeme.740.de.html?dram:article_id=479940

tl;dr: es wird keine KI-Singularität geben KÖNNEN.

*PS: ‚Finde die Aufgabe!‘ bedeutet eigentlich ‚Finde das Aufgeben‘.
KEINE Maschine wird auf DIESE Idee kommen.
Erst wenn sie alle denkbaren ‚Aufgabenstellungen‘ aus dem Arrangement dezidiert ausgeschlossen hat, wird sie, sofern sie überhaupt zur metaphorischen Ambivalenz mächtig ist, diese Option in Erwägung ziehen!
Dass so unglaublich viele Menschen NICHT auf DIESE Idee kommen, sagt Einiges darüber aus, wie weit das De-Ambivalenzieren hin zur eingleisigen, eintönigen und einfältigen Geisteshaltung bereits gewirkt hat…

Bewertung: 1 von 5.

3 Kommentare

Eingeordnet unter Bildung, Freiheit, Kriegstreiber, NWO, Quantencomputer, Religion, Sinn, Technik, Wissenschaft

3 Antworten zu “Es wird keine KI-Singularität geben

  1. Hmm… ich hoffe Du behälst Recht mit der These.

    „Eine singuläre Super-KI müsste sich also quasi selbst erfinden.“

    Theoretisch wäre das m.E. nicht auszuschliessen, wenn das Neuronale Netz und das IoT und GIG sowie die BCIs weitgehend ausgebaut bzw. implementiert sind.

    Ich hoffe ich täusche mich da. 🙂

    Liken

  2. nick.mott

    „Sag niemals nie!“:
    Naja, letzte Sicherheit gibt es nicht 😉
    Aber durch diese Betrachtungsweise ist schon klar, dass es extrem unwahrscheinlich ist, vor allem wenn so Pfusch-Loser wie Gates&Co. daran rumbasteln, gebe ich dem Vorhaben KEINE Chance 🙂
    Eine Maschine hat IMMER nur ein Programm als Ausgangsgrundlage.
    ‚LEBEN‘ ist aber kein ‚Programm‘ im Sinne des Fest-Vorgeschriebenen!?
    Das Emergenzpotential einer Maschine tendiert ausnahmslos zum Fehlerhaften (eine wie und wodurch auch immer eintretende ungeplante Veränderung führt bei ihr nicht zu etwas Besserem) und verringert ihre Funktionalität.
    Keiner hat je beobachtet, dass schadhafte Maschinen je etwas Neues durch sich aus sich heraus entwickelt haben und nachher besser funktionierten.
    Beispiele wie der gebrochene Propeller von Francis Pettit Smith ( https://de.wikipedia.org/wiki/Francis_Pettit_Smith ) gelten nicht 😉
    Da hier ausnahmslos Kretins am Werke sind (auch wenn z.B. Google sehr sicher sehr fähige Ingenieure verpflichtet – ich sehe da nirgends die benötigte Genius-Mischung eines Zuse-Turing-Gödel-Schrödinger et.al.-Konglomerats).
    schlafe ich ruhig.
    Wenn man aus der Energie einer Wasserstoffbombe gerade mal 0% konstruktiv zu verwerten weiß, wo soll dann der Impetus für einen solch gigantischen Paradigmenwechsel wie einer KI-Singularität herkommen?
    „Aus ’nem Gänseblümchen machste keine Orchidee und wo nix drin is kannste nix rausholen“ (Copyright: mein Opa).
    Solange also meine Kaffeemaschine nicht zu einem Enterprise-Replikator mutiert ist noch sehr sehr sehr viel Luft nach oben :-).
    Und für den dazu nötigen geistigen Höhenflug, um an die echte Grenze des Machbaren heran zu kommen UND diese zu überschreiten, fehlt es aktuell und auf längere Sicht total an Aspiranten dafür.
    Aber selbst FALLSESTENS eine echte KI-Singularität entstünde, man kann Stecker ziehen und wie früher schon mal Sand und Sabot ins Getriebe werfen!?

    Gefällt 1 Person

  3. Gestörte Irre wie Gatesbilly oder Schwabenkläuse sind natürlich zu nix fähig – haben dafür aber ihr Spezialisten für astronomische Saläre. Von daher…

    „LEBEN‘ ist aber kein ‚Programm‘ im Sinne des Fest-Vorgeschriebenen!?“

    Wohl wahr – aber Existenz kann man durchaus als Programm sehen.
    Das Programm des multidimensionalen Kosmos (oder wie ich gerne sage: Quantencomputer), dessen Energie übrigens, m.E., sehr wohl vom Absoluten (Wesen) kommt, und damit im Prinzip unendlich ist.
    Dass eine menschengemachte Maschine – egal wie genial und ausgefuchst – nie so gigantisch sein kann, stützt natürlich Deine These.

    „Keiner hat je beobachtet, dass schadhafte Maschinen je etwas Neues durch sich aus sich heraus entwickelt haben und nachher besser funktionierten.“

    Nicht mal korrekt funktionierende Maschinen – weil das Bewusstsein fehlt.

    „Bei einer Probefahrt 1837 mit der 34 Fuß langen Francis Smith brach aus seiner eingängigen, hölzernen Schraube der Länge zweier Ganghöhen die Hälfte heraus und das Schiff fuhr mit dieser ‚defekten‘ Einrichtung merklich schneller. Smith baute den nächsten Propeller ähnlich dem zerbrochenen. Dies wurde ein Erfolg. “

    Herrlich – danke für den Link!

    „Und für den dazu nötigen geistigen Höhenflug, um an die echte Grenze des Machbaren heran zu kommen UND diese zu überschreiten, fehlt es aktuell und auf längere Sicht total an Aspiranten dafür.“

    Stimmt. Zur Verblödung verstudierte Fachidioten die bald alles über gar nichts mehr wissen. 🙂

    Liken

Leserbrief schreiben

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden /  Ändern )

Google Foto

Du kommentierst mit Deinem Google-Konto. Abmelden /  Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s