Vitalik: Angst vor AGI und ASI, unterstützt den Bau von intelligenzsteigernden Werkzeugen für Menschen anstatt die Schaffung von superintelligentem Leben
Am 22. Dezember, als Reaktion auf die jüngsten AGI-bezogenen Produktentwicklungen im OpenAI- und KI-Bereich, postete Ethereum-Gründer Vitalik Buterin auf der Plattform X und sagte: "Meine Definition von AGI (Artificial General Intelligence) ist: AGI ist eine künstliche Intelligenz, die so mächtig ist, dass, wenn eines Tages alle Menschen plötzlich verschwinden würden und diese KI in einen Roboterkörper hochgeladen würde, sie in der Lage wäre, die Zivilisation eigenständig fortzusetzen.
Offensichtlich ist dies eine sehr schwierige Definition zu messen, aber ich denke, genau das ist der Kernunterschied zwischen 'der KI, die wir gewohnt sind' und 'AGI' in den Köpfen vieler Menschen. Es markiert den Übergang von einem Werkzeug, das ständig auf menschlichen Input angewiesen ist, zu einer selbstständigen Lebensform. ASI (Artificial Super Intelligence) ist eine völlig andere Angelegenheit - meine Definition ist, wenn Menschen keinen Wert mehr zur Produktivität im Zyklus hinzufügen (genau wie bei Schachspielen, wo wir diesen Punkt erst im letzten Jahrzehnt erreicht haben.)
Ja, ASI macht mir Angst - sogar meine definierte AGI macht mir Angst, weil sie offensichtliche Risiken des Kontrollverlusts mit sich bringt. Ich unterstütze es, unsere Arbeit darauf zu konzentrieren, intelligente Verbesserungstools für Menschen zu entwickeln, anstatt superintelligente Lebensformen zu schaffen."
Haftungsausschluss: Der Inhalt dieses Artikels gibt ausschließlich die Meinung des Autors wieder und repräsentiert nicht die Plattform in irgendeiner Form. Dieser Artikel ist nicht dazu gedacht, als Referenz für Investitionsentscheidungen zu dienen.