Wir sind in die schöne neue Welt der KI-Chatbots eingetreten. Das bedeutet alles, von der Überprüfung, wie Schüler in der Schule lernen, bis hin zum Schutz vor massenproduzierten Fehlinformationen. Es bedeutet auch, den wachsenden Forderungen nach einer Regulierung der KI Folge zu leisten, damit wir uns in einem Zeitalter zurechtfinden, in dem Computer so flüssig schreiben wie Menschen. Oder noch besser.
Bisher besteht mehr Einigkeit über die Notwendigkeit einer KI-Regulierung als darüber, was sie mit sich bringen würde. Mira Murati, Leiterin des Teams, das die Chatbot-App ChatGPT entwickelt hat, die am schnellsten wachsende Internet-App der Geschichte, sagte, Regierungen und Aufsichtsbehörden sollten einbezogen werden, schlugen aber nicht vor, wie. Bei einer Firmenveranstaltung im März sprach Elon Musk ähnlich mit weniger als anspruchsvoller Präzision: „Wir brauchen so etwas wie eine Regulierungsbehörde oder etwas, das die Entwicklung von KI überwacht.“ In der Zwischenzeit hat das breite Einsatzspektrum von ChatGPT die europäischen Bemühungen zur Regulierung von Einzweck-KI-Anwendungen zunichte gemacht.
Um aus der Sackgasse herauszukommen, schlage ich Transparenz- und Erkennungsanforderungen vor, die speziell auf Chatbots zugeschnitten sind, Computerprogramme, die sich auf künstliche Intelligenz stützen, um mit Benutzern zu kommunizieren und als Antwort auf schriftliche Anfragen flüssige Texte zu produzieren. Chatbot-Anwendungen wie ChatGPT sind eine äußerst wichtige Ecke der KI, die viele tägliche Aktivitäten neu gestalten wird, von der Art und Weise, wie wir schreiben, bis hin zur Art und Weise, wie wir lernen. Das Zurückhalten von Chatbots wirft genug Probleme auf, ohne sich in breiteren KI-Gesetzgebungen zu verzetteln, die für autonome Waffen, Gesichtserkennung, selbstfahrende Autos, diskriminierende Algorithmen, die wirtschaftlichen Auswirkungen einer weit verbreiteten Automatisierung und die geringe, aber nicht null Möglichkeit katastrophaler Katastrophen geschaffen wurden. lösen Die Tech-Industrie stürzt sich in den Chatbot-Goldrausch; wir brauchen eine schnelle und zielgerichtete Gesetzgebung, um Schritt zu halten.
Die neuen Regeln sollten die zwei Phasen verfolgen, die KI-Unternehmen zum Erstellen von Chatbots verwenden. Zunächst trainiert ein Algorithmus eine riesige Textmenge, um fehlende Wörter vorherzusagen. Wenn Sie genügend Sätze sehen, die mit „Es ist heute bewölkt, vielleicht …“ beginnen, werden Sie feststellen, dass die wahrscheinlichste Schlussfolgerung „Regen“ ist, und der Algorithmus lernt das auch. Der trainierte Algorithmus kann Wörter einzeln generieren, genau wie die Autovervollständigungsfunktion auf Ihrem Telefon. Menschliche Bewerter bewerten dann sorgfältig die Ausgabe des Algorithmus anhand einer Handvoll Maßnahmen wie Genauigkeit und Relevanz für die Anfrage des Benutzers.
Die erste regulatorische Anforderung, die ich vorschlage, ist, dass alle verbraucherorientierten Anwendungen, die Chatbot-Technologie beinhalten, den Text veröffentlichen, auf dem die KI zuerst trainiert wurde. Dieser Text hat immensen Einfluss: Trainieren Sie Reddit-Posts und der Chatbot lernt, wie ein Redditor zu sprechen. Trainiere sie auf den Flintstones und sie werden wie Barney Rubble sprechen. Eine Person, die sich Sorgen über die Toxizität im Internet macht, möchte möglicherweise Chatbots vermeiden, die mit Texten von anstößigen Websites trainiert wurden. Öffentlicher Druck könnte Unternehmen sogar davon abhalten, Chatbots auf Dingen wie Verschwörungstheorie-„Nachrichten“-Sites zu schulen, aber das geht nur, wenn die Öffentlichkeit weiß, zu welchem Text die Unternehmen trainieren. In Mary Shelleys Roman von 1818 Frankenstein, gab einen Einblick in den Geist des Monsters, indem er die Bücher auflistete, die von diesem literarischen Vorfahren der künstlichen Intelligenz gelesen wurden. Es ist an der Zeit, dass Technologieunternehmen dasselbe mit ihren eigenen übernatürlichen Chatbot-Kreationen tun.
Menschliche Bewerter prägen auch das Verhalten eines Chatbots stark, was auf eine zweite Anforderung an Transparenz hinweist. Einer der ChatGPT-Ingenieure beschrieb kürzlich die Prinzipien, die das Team zur Führung dieser zweiten Schulungsphase verwendete: „Sie möchten, dass es nützlich ist, Sie möchten, dass es wahrheitsgemäß ist, Sie möchten, dass es ungiftig ist, wissen Sie … Es sollte auch um zu verdeutlichen, dass es sich um ein KI-System handelt. Es sollte keine Identität annehmen, die es nicht hat, es sollte nicht behaupten, Fähigkeiten zu haben, die es nicht besitzt, und wenn ein Benutzer es auffordert, Aufgaben zu erledigen, die es nicht tun soll, Sie muss eine negative Nachricht schreiben.“ Ich vermute, dass die Richtlinien, die den Bewertern, zu denen auch Niedriglohn-Vertragsarbeiter in Kenia gehörten, zur Verfügung gestellt wurden, detaillierter waren, aber es gibt derzeit keinen rechtlichen Druck, etwas über den Ausbildungsprozess offenzulegen.
Da Google, Meta und andere bestrebt sind, Chatbots in ihre Produkte zu integrieren, um mit der Einführung von ChatGPT durch Microsoft Schritt zu halten, verdienen es die Menschen, die Leitprinzipien zu kennen, die sie prägen. Elon Musk rekrutiert ein Team, um einen Chatbot zu bauen, der mit dem konkurrieren kann, was er als die übertriebene „Wachheit“ von ChatGPT ansieht; Ohne mehr Transparenz in den Trainingsprozess fragen wir uns, was das bedeutet und welche zuvor verbotenen (und potenziell gefährlichen) Ideologien Ihr Chatbot übernehmen wird.
Daher ist die zweite Anforderung, dass die in der zweiten Phase der Chatbot-Entwicklung verwendeten Richtlinien sorgfältig formuliert und öffentlich verfügbar sein müssen. Dies verhindert, dass Unternehmen Chatbots nachlässig trainieren, und enthüllt, welche politischen Neigungen ein Chatbot haben könnte, welche Themen er nicht berührt und welche Toxizität die Entwickler nicht vermieden haben.
So wie Verbraucher das Recht haben, die Inhaltsstoffe ihrer Lebensmittel zu kennen, sollten sie die Inhaltsstoffe ihrer Chatbots kennen. Die beiden hier vorgeschlagenen Transparenzanforderungen geben den Menschen die Chatbot-Zutatenlisten, die sie verdienen. Dies wird den Menschen helfen, gesunde Entscheidungen in Bezug auf ihre Informationsdiät zu treffen.
Erkennung treibt die dritte notwendige Anforderung an. Viele Lehrer und Organisationen erwägen, von Chatbots produzierte Inhalte zu verbieten (einige haben dies bereits getan, wie z Mit Kabel und eine beliebte Q&A-Site zum Programmieren), aber eine Sperre ist nicht viel wert, wenn es keine Möglichkeit gibt, den Text des Chatbots zu erkennen. OpenAI, das Unternehmen hinter ChatGPT, veröffentlichte ein experimentelles Tool zur Erkennung der ChatGPT-Ausgabe, aber es war schrecklich unzuverlässig. Glücklicherweise gibt es einen besseren Weg, den OpenAI bald implementieren könnte: Wasserzeichen. Dies ist einer technische Methode, um Chatbot-Worthäufigkeiten zu ändern Das ist für Benutzer nicht wahrnehmbar, bietet aber einen versteckten Stempel, der den Text mit seinem Chatbot-Autor identifiziert.
Anstatt darauf zu warten, dass OpenAI und andere Chatbot-Hersteller Wasserzeichen implementieren, sollten wir sie auferlegen. Und wir sollten von Chatbot-Entwicklern verlangen, ihre Chatbots zu registrieren und eindeutige Signaturen mit Wasserzeichen bei einer Bundesbehörde wie der Federal Trade Commission oder der von Rep. Ted Lieu vorgeschlagenen KI-Aufsichtsbehörde zu registrieren. Die Bundesbehörde könnte eine öffentliche Schnittstelle bereitstellen, die es jedem ermöglichen würde, einen Text einzufügen und zu sehen, welche Chatbots ihn gegebenenfalls erstellt haben.
Die hier vorgeschlagenen Transparenz- und Erkennungsmaßnahmen würden den Fortschritt der KI nicht verlangsamen oder die Fähigkeit von Chatbots beeinträchtigen, der Gesellschaft auf positive Weise zu dienen. Sie würden es den Verbrauchern einfach erleichtern, fundierte Entscheidungen zu treffen, und den Menschen, KI-generierte Inhalte zu identifizieren. Während einige Aspekte der KI-Regulierung recht heikel und schwierig sind, sind diese Chatbot-Regulierungen klare und dringend notwendige Schritte in die richtige Richtung.
Dies ist ein Meinungs- und Analyseartikel, und die von den Autoren geäußerten Ansichten stimmen nicht unbedingt mit denen von überein Amerikanischer Wissenschaftler