Um eine KI-Katastrophe zu verhindern, müssen Regulierungsbehörden für vertrauenswürdige KI sorgen, sagen Experten dem Gesetzgeber – DNyuz

To Avoid An AI Catastrophe, Regulators Must Ensure Trustworthy AI, Experts Tell Lawmakers

Die größte Chance und größte Gefahr der KI ist für die zivile Welt dieselbe wie für das Militär: das Potenzial, die Wahrheit zu enthüllen oder zu verschleiern. Diese Macht könnte den Unterschied zwischen fairen und unfairen Wahlen oder über Leben und Tod im Kampf ausmachen.

Am Dienstag traten wichtige Innovatoren der KI vor den Gesetzgebern auf, um zu diskutieren, wie neue Tools Investoren und Machern einen Mehrwert bieten – auch wenn sie dazu genutzt werden, Verwirrung zu stiften und Menschen zu täuschen.

Einerseits erweisen sich neue Tools der künstlichen Intelligenz nicht nur für nützlich Aufsätze schreiben aber für eine Art Vorahnung. Eine Gruppe von Forschern der Harvard-Universität und des Massachusetts Institute of Technology (MIT) hat dieses Generativ kürzlich nachgewiesen KI-Modelle können Vorhersagen treffengenauer als Umfragen, wie Menschen auf der Grundlage der Medien, die sie konsumieren, abstimmen werden. Clearspeed, dessen Produkte vom US-Militär, von Versicherungsunternehmen und anderen Kunden verwendet werden, bietet ein KI-Tool an, das mithilfe einer Stimmungsanalyse erkennt, ob ein Befragter wahrheitsgemäß auf Ja- oder Nein-Fragen antwortet. Steve Wisotzki, ein ehemaliger Navy SEAL, der die Regierungsbeziehungen des Unternehmens verwaltet, sagte Verteidigung Eins Die Technologie wurde entwickelt, um US-amerikanischen und afghanischen Streitkräften dabei zu helfen, Insider-Bedrohungen zu erkennen. Laut Wisotzki haben viele neue Daten dem Unternehmen geholfen, das Modell so weit zu verfeinern, dass es anhand von weniger als zehn Fragen das „Risiko“, dass ein Interviewpartner lügt, mit einer Genauigkeit von mehr als 97 Prozent bestimmen kann.

Aber auch der Einsatz von KI zur Verschleierung der Wahrheit nimmt zu. In seiner Aussage vor dem Gesetzgeber beschrieb Gary Marcus, ein Neurowissenschaftler, Autor und Unternehmer, potenzielle Bedrohungen, die von den einfachen, bereits verfügbaren Tools ausgehen. „Sie können und werden überzeugende Lügen in einem Ausmaß erschaffen, wie es die Menschheit noch nie zuvor gesehen hat. Außenstehende werden sie nutzen, um unsere Wahlen zu beeinflussen, Insider, um unsere Märkte und unsere politischen Systeme zu manipulieren. Die Demokratie selbst ist bedroht. Chatbots werden auch heimlich unsere Meinung prägen und möglicherweise über die Möglichkeiten sozialer Medien hinausgehen. Entscheidungen über Datensätze, die KI-Unternehmen verwenden, werden einen enormen, unsichtbaren Einfluss haben; Wer die Daten wählt, wird die Regeln festlegen, die die Gesellschaft auf subtile, aber wirkungsvolle Weise prägen.“

Sam Altman, der Gründer von OpenAI, dem Hersteller des beliebten neuen Tools ChatGPT, sagte den Gesetzgebern: „Meine schlimmsten Befürchtungen sind, dass wir … die Technologiebranche der Welt erheblichen Schaden zufügen … Deshalb haben wir das Unternehmen gegründet.“ Das ist einer der Gründe, warum ich heute hier bin.“

Einige wichtige Militärbeamte teilen diese Bedenken hinsichtlich der Vertrauenswürdigkeit von KI-Tools, obwohl das Militär versucht, KI in einer Vielzahl von Bereichen einzusetzen.

Lisa Sanders, die Direktorin für Wissenschaft und Technologie des US Special Operations Command, erzählte Verteidigung Eins, „Wir können es nicht ignorieren [tools like ChatGPT] weil … der Geist aus der Flasche ist.“

Effektive Operationen in den Grauzonen der Zukunft werden bedeuten, „die Bodenwahrheit schneller zu entdecken, als die Umgebung es vielleicht möchte, schneller als ich es vielleicht könnte, diese Art von Superfähigkeit, um … schneller zu einer hohen Gewissheit der Bodenwahrheit zu gelangen.“ der Laie“, sagte Sanders Verteidigung Eins in einem exklusiven Interview während der Global SOF-Veranstaltung in Tampa, Florida. .

SOCOM ist Wir arbeiten daran, Sensordaten, Open-Source-Daten und künstliche Intelligenz zusammenzuführen um Bedienern in Grauzonenumgebungen zu helfen. Durch das Tragen spezieller Brillen oder Kopfhörer können SOF-Truppen die Stimmung der lokalen Bevölkerung besser erfassen, Sprachen ohne mit dem Internet verbundene Übersetzer verstehen und im Wesentlichen verschiedene Ereignisse vorhersagen. Aber solche Tools können sich von einem Vorteil in eine Belastung verwandeln, wenn sie nicht vertrauenswürdig sind. Sanders sagte, ein Hauptanliegen sei: „Wie validiere ich entweder meine Schlussfolgerungen, die ich gezogen habe, oder sogar die Rohdatenquelle?“

Diese Aufgabe, die Wahrheit zu überprüfen, wird nicht einfach jemandem zu Hause obliegen, der die Software geschrieben und die Daten vor der Bereitstellung strukturiert hat. Ein Teil davon fällt im Moment eines Konflikts oder potenziellen Konflikts an den Bediener oder sein Team. Wie kann man ihnen also genug Vertrauen in das Produkt vermitteln, damit sie es in angespannten Momenten verwenden können, ohne dem Bediener zu viel Vertrauen in ein Werkzeug zu geben, das nur scheinbar perfekt ist?

Sanders sagte, dass spezielle Operatoren nötig sein werden, um „diese Algorithmen zu verstehen und zu optimieren … vor allem, weil wir wissen, dass vieles davon aus einem nicht-militärischen, nicht nationalen Sicherheitshintergrund kommt.“ Es wird inhärente Vorurteile geben. Daher halte ich es für wichtig, zu sehen, wohin uns diese Vorurteile führen, auf einen Weg, den wir anpassen müssen, oder um die Vorurteile zu identifizieren, die wir verbreiten. Wie schafft man das, ohne die ganze Zeit über Wissenschaftler dabei zu haben? Wie können wir als Endbenutzer Vertrauen in dieses Tool gewinnen, um es angemessen zu nutzen und uns bei der Erfüllung unserer Mission zu helfen?“

Es ist jedoch keine gute Idee, sich darauf zu verlassen, dass diese Unternehmen mit „nicht-militärischem Hintergrund und nicht nationalem Sicherheitshintergrund“ Produkte herstellen, die sicher und gut geprüft sind, es sei denn, der Kongress kann sie dazu zwingen, offen zu beschreiben, wie ihre Modelle tatsächlich funktionieren und welche Daten in sie einfließen . Der Kongress müsse außerdem sicherstellen, dass externe Regierungsbehörden und unabhängige Forscher sie bewerten können, sagten Experten am Dienstag aus.

Altman von OpenAI schlug vor, dass die Vereinigten Staaten auf die Schaffung einer internationalen Überwachungsorganisation drängen sollten, die vielleicht der IAEA ähnelt, um die Entwicklung von KI-Tools zu überwachen. Er schlug vor, dass die US-Regierung Standards und Lizenzierungsstellen einrichtet. Unternehmen, die KI-Tools missbrauchen oder Risiken für die Öffentlichkeit schaffen, könnten mit dem Entzug von Lizenzen zur Nutzung oder Entwicklung von Produkten rechnen.

Nicht jeder in der Tech-Community ist von dieser Idee begeistert. Am Sonntag kündigte Eric Schmidt an, ein ehemaliger CEO von Google, der jetzt das Amt übernimmt ein geheimer, auf Verteidigung ausgerichteter Risikofonds, empfohlen dass KI in der Größenordnung eines Unternehmens wie Google und Microsoft viel zu komplex ist, als dass irgendjemand außer der Industrie selbst sie effektiv regulieren könnte.

Aber eine andere ehemalige Google-Mitarbeiterin, Meredith Whittaker, Zurückgestoßen auf Twitter: „Das Versäumnis der Tech-Industrie, sich selbst zu überwachen, während die Regulierungsbehörden dies ermöglichten, hat dazu geführt, dass wir dahin gekommen sind, wo wir sind.“ Ich sage das als jemand, der über 13 Jahre für Google gearbeitet hat. Lassen Sie sich nicht von mächtigen Männern täuschen, die eigennützige Erklärungen in vernünftigem Ton abgeben.“

Marcus, der Neurowissenschaftler, plädierte ähnlich: Um den schlimmsten KI-Missbrauch zu verhindern, muss die US-Regierung dringend Datenquellen und die Erklärbarkeit von Algorithmen regulieren und für eine allgemeine staatliche und zivile Aufsicht sorgen.

„Der bevorzugte Plan der großen Technologieunternehmen läuft darauf hinaus: Vertrauen Sie uns. Aber warum sollten wir? „Die Summen, um die es geht, sind unfassbar“, sagte er. „Missionen driften. Im ursprünglichen Leitbild von OpenAI hieß es: „Unser Ziel ist es, die KI so voranzutreiben, dass sie der gesamten Menschheit am ehesten zugute kommt, ohne durch die Notwendigkeit, finanzielle Erträge zu erwirtschaften, eingeschränkt zu werden.“ Sieben Jahre später sind sie größtenteils Microsoft verpflichtet und in einen epischen Kampf der Suchmaschinen verwickelt, die routinemäßig Dinge erfinden. Und das hat Alphabet dazu gezwungen, Produkte schnell auf den Markt zu bringen und die Sicherheit zu vernachlässigen. Die Menschheit ist in den Hintergrund getreten.“

Die Post Um eine KI-Katastrophe zu verhindern, müssen Regulierungsbehörden für vertrauenswürdige KI sorgen, sagen Experten dem Gesetzgeber erschien zuerst auf Verteidigung Eins.

Loading...