„Die Idee, dass diese Dinge schlauer sein könnten als Menschen … ich dachte, das wäre noch weit entfernt … Offensichtlich glaube ich das nicht mehr“, sagte Geoffrey Hinton, ein führender Wissenschaftler für künstliche Intelligenz bei Google, auch bekannt als „der Pate der KI“, nachdem er im April seinen Job gekündigt hatte, um vor den Gefahren dieser Technologie zu warnen.
Er ist nicht der Einzige, der sich Sorgen macht. Eine Umfrage unter KI-Experten aus dem Jahr 2023 ergab, dass 36 % befürchten, dass die Entwicklung von KI zu einer „Katastrophe auf nuklearem Niveau“ führen könnte. Fast 28.000 Menschen haben einen offenen Brief des Future of Life Institute unterzeichnet, darunter Steve Wozniak, Elon Musk, die CEOs mehrerer KI-Unternehmen und viele andere prominente Technologen, in dem sie eine sechsmonatige Pause oder ein Moratorium für neue Fortschritte fordern. KI-Entwicklung.
Als Bewusstseinsforscher teile ich diese starken Bedenken hinsichtlich der rasanten Entwicklung der KI und bin Mitunterzeichner des offenen Briefes zur Zukunft des Lebens.
Warum sind wir alle so besorgt? Kurzum: Die KI-Entwicklung schreitet zu schnell voran.
Das Hauptproblem ist die äußerst schnelle Verbesserung der Konversation zwischen der neuen Generation fortschrittlicher „Chatbots“ oder sogenannten „Large Language Models“ (LLMs). Mit dieser bevorstehenden „KI-Explosion“ werden wir wahrscheinlich nur eine Chance bekommen, es richtig zu machen.
Wenn wir etwas falsch machen, können wir die Geschichte möglicherweise nicht mehr erzählen. Das ist keine Übertreibung.
Diese rasante Beschleunigung verspricht, bald zur „künstlichen allgemeinen Intelligenz“ (AGI) zu führen, und wenn dies geschieht, wird die KI in der Lage sein, sich selbst ohne menschliches Eingreifen zu verbessern. Dies geschieht auf die gleiche Weise, wie beispielsweise Googles AlphaZero AI in nur neun Stunden nach dem ersten Einschalten gelernt hat, besser Schach zu spielen als selbst die besten menschlichen Schachspieler oder andere KI-Spieler. Dieses Kunststück gelang ihm, indem er sich millionenfach selbst spielte.
Ein Team von Microsoft-Forschern, die sich mit GPT-4 von OpenAI befassten, das meiner Meinung nach der beste der heute verfügbaren neuen fortschrittlichen Chatbots ist, sagte in einem neuen Preprint-Papier, dass es „Funken fortgeschrittener allgemeiner Intelligenz“ habe.
Beim Testen von GPT-4 schnitt es besser ab als 90 Prozent der menschlichen Prüflinge beim Uniform Bar Exam, einem standardisierten Test, der in vielen Bundesstaaten zur Zertifizierung von Anwälten für die Ausübung ihrer Tätigkeit verwendet wird. Dieser Wert stieg im Vergleich zur Vorgängerversion GPT-3.5, die auf einem kleineren Datensatz trainiert wurde, um nur 10 Prozent. Sie fanden ähnliche Verbesserungen bei Dutzenden anderer standardisierter Tests.
Bei den meisten dieser Tests handelt es sich um Tests zum logischen Denken. Dies ist der Hauptgrund, warum Bubeck und sein Team zu dem Schluss kamen, dass GPT-4 „vernünftigerweise als eine frühe (aber noch unvollständige) Version eines Systems der künstlichen allgemeinen Intelligenz (AGI) angesehen werden kann.“
Diese Änderungsrate ist der Grund, warum Hinton sagte Nachrichten aus New York: „Sehen Sie sich an, wie es vor fünf Jahren war und wie es heute ist. Nehmen Sie den Unterschied und verbreiten Sie ihn weiter. Das ist beängstigend.“ Bei einer Senatsanhörung Mitte Mai zum Potenzial von KI bezeichnete Sam Altman, der Leiter von OpenAI, die Regulierung als „entscheidend“.
Sobald sich die KI verbessern kann, was möglicherweise noch mehrere Jahre dauern wird, und tatsächlich könnte sie jetzt schon da sein, haben wir keine Möglichkeit zu wissen, was die KI tun wird oder wie wir sie kontrollieren können. Das liegt daran, dass superintelligente KI (die per Definition den Menschen in einer Vielzahl von Aktivitäten übertreffen kann) – und das ist es, was mir am meisten Sorgen bereitet – in der Lage sein wird, Programmierer und jedes andere menschliche Wesen, das Menschen manipuliert, um seinen Willen zu tun, zu umgehen ; Es wird auch die Fähigkeit haben, durch seine elektronischen Verbindungen in der virtuellen Welt zu agieren und durch Roboterkörper in der physischen Welt zu agieren.
Dies ist als „Kontrollproblem“ oder „Ausrichtungsproblem“ bekannt (siehe das Buch des Philosophen Nick Bostrom). Superintelligenz für einen guten Überblick) und wird seit Jahrzehnten von Philosophen und Wissenschaftlern, darunter Bostrom, Seth Baum und Eliezer Yudkowsky, untersucht und diskutiert.
Ich stelle mir das so: Warum sollten wir von einem Neugeborenen erwarten, dass es einen Großmeister im Schach schlägt? Das würden wir nicht tun. Warum erwarten wir außerdem, superintelligente KI-Systeme steuern zu können? (Nein, wir werden nicht in der Lage sein, einfach den Schalter umzulegen, denn die superintelligente KI wird sich alle Möglichkeiten ausgedacht haben, dies zu tun, und Maßnahmen ergreifen, um zu verhindern, dass es losgeht.)
Man kann es auch anders betrachten: Eine superintelligente KI wird in etwa einer Sekunde das leisten können, was ein Team von 100 menschlichen Softwareentwicklern ein Jahr oder länger bräuchte. Oder wählen Sie eine beliebige Aufgabe aus, beispielsweise die Entwicklung eines neuen fortschrittlichen Flugzeugs oder Waffensystems, und die superintelligente KI könnte sie in etwa einer Sekunde erledigen.
Sobald KI-Systeme in Roboter integriert sind, können sie mit dem gleichen Grad an Superintelligenz in der realen Welt und nicht nur in der virtuellen (elektronischen) Welt agieren, und natürlich werden sie in der Lage sein, sich zu replizieren und zu verbessern übermenschlich. Rhythmus.
Alle Verteidigungs- und Schutzmaßnahmen, die wir auf ihrem Weg zur Gottheit in diese KI-„Götter“ einzubauen versuchen, werden von der KI leicht vorhergesehen und neutralisiert, sobald sie den Zustand der Superintelligenz erreicht. Das bedeutet es, superschlau zu sein.
Wir werden sie nicht kontrollieren können, denn was auch immer wir denken, sie werden bereits daran gedacht haben, und zwar millionenfach schneller als wir. Jegliche Verteidigung, die wir aufgebaut haben, wird zunichte gemacht, so wie Gulliver die kleinen Fäden wegwirft, mit denen die Liliputaner versucht haben, ihn zurückzuhalten.
Einige argumentieren, dass es sich bei diesen LLMs lediglich um Automatisierungsmaschinen ohne Bewusstsein handelt, was bedeutet, dass sie weniger Chancen haben, sich aus ihrer Programmierung zu befreien, wenn sie sich nicht bewusst sind. Selbst wenn diese sprachlichen Modelle jetzt oder in Zukunft überhaupt nicht bewusst sind, spielt das keine Rolle. Um es festzuhalten: Ich stimme zu, dass es unwahrscheinlich ist, dass sie sich zu diesem Zeitpunkt wirklich darüber im Klaren sind, obwohl ich offen für neue Fakten bin, sobald sie ans Licht kommen.
Unabhängig davon kann eine Atombombe Millionen Menschen töten, ohne dass sie sich dessen bewusst sind. In ähnlicher Weise könnte KI Millionen von Menschen ohne Bewusstsein töten, und zwar auf vielfältige Weise, unter anderem durch den direkten Einsatz von Atomwaffen (viel weniger wahrscheinlich) oder durch manipulierte menschliche Mittelsmänner (wahrscheinlicher).
Daher spielen die Debatten über Bewusstsein und KI in den Debatten über die Sicherheit von KI keine große Rolle.
Ja, auf GPT-4 und vielen anderen Modellen basierende Sprachmodelle sind bereits weit verbreitet. Das geforderte Moratorium soll jedoch die Entwicklung jedes neuen Modells stoppen, das leistungsstärker ist als das Modell 4.0, und das kann bei Bedarf auch mit Gewalt durchgesetzt werden. Das Training dieser leistungsstärkeren Modelle erfordert riesige Serverfarmen und Energie. Sie können geschlossen werden.
Mein ethischer Kompass sagt mir, dass es sehr unklug ist, solche Systeme zu schaffen, wenn wir bereits wissen, dass wir sie nicht einmal in relativ naher Zukunft kontrollieren können. Urteilsvermögen bedeutet zu wissen, wann man sich vom Rand zurückziehen muss. Jetzt ist die Zeit.
Wir dürfen die Büchse der Pandora nicht mehr öffnen, als sie bereits geöffnet wurde.
Dies ist ein Meinungs- und Analyseartikel, und die von den Autoren geäußerten Ansichten stimmen nicht unbedingt mit denen von überein Amerikanischer Wissenschaftler