AI regulation

Demokraten hinterfragen OpenAI's Sicherheitsmaßnahmen angesichts von Whistleblower-Bedenken

Sen. Elizabeth Warren and Rep. Lori Trahan discussing OpenAI's safety record.

OpenAI unter Beobachtung: Gesetzgeber fordern Verantwortlichkeit für Whistleblower-Schutz

In einem Schritt, der eine zunehmende behördliche Überprüfung signalisiert, haben Senatorin Elizabeth Warren (D-MA) und die Abgeordnete Lori Trahan (D-MA) Transparenz in Bezug auf die Whistleblower- und Sicherheitsprotokolle von OpenAI gefordert. Diese Anfrage folgt auf Behauptungen ehemaliger Mitarbeiter, die eine Kultur hervorheben, in der interne Kritiken offenbar unterdrückt werden.

Die Aufforderung zur Klarheit

In ihrem kürzlich veröffentlichten Schreiben, das exklusiv The Verge zugänglich gemacht wurde, stellen Warren und Trahan wichtige Fragen. Sie heben eine besorgniserregende Diskrepanz zwischen den öffentlichen Zusicherungen von OpenAI und internen Berichten über die Betriebspraktiken der Organisation hervor.

„Angesichts der Diskrepanz zwischen Ihren öffentlichen Kommentaren und Berichten über die Aktionen von OpenAI fordern wir Informationen über die Whistleblower- und Interessenkonfliktschutzmaßnahmen von OpenAI, um zu verstehen, ob eine föderale Intervention erforderlich sein könnte“, erklären sie.

Vorwürfe über Versäumnisse bei Sicherheitsprotokollen

Die Gesetzgeber führten spezifische Vorfälle an, bei denen die Sicherheitsmaßnahmen bei OpenAI in Frage gestellt wurden. Sie verwiesen beispielsweise auf einen Vorfall im Jahr 2022, bei dem eine unveröffentlichte Version von GPT-4 innerhalb einer neuen Microsoft Bing-Suchmaschineniteration in Indien ohne Genehmigung des Sicherheitsgremiums von OpenAI getestet wurde. Dies wirft kritische Fragen hinsichtlich des Engagements der Organisation für strenge Sicherheitsprotokolle auf.

Darüber hinaus erinnert das Schreiben an die hochkarätige Absetzung des OpenAI-CEO Sam Altman im Jahr 2023, die aus Bedenken des Vorstands resultierte, die mit dem Kommerzialisierungsprozess zusammenhingen, ohne die potenziellen Auswirkungen vollständig zu verstehen.

Sicherheitskultur unter Beschuss

Die Bedenken hinsichtlich der Sicherheitskultur von OpenAI wurden von Quellen verstärkt, die behaupteten, die Organisation habe bei wichtigen Sicherheitstests gehetzt. Ein Bericht von The Washington Post deutete darauf hin, dass das Superalignment-Team, das für Sicherheitsmaßnahmen verantwortlich ist, aufgelöst wurde und ein weiterer Sicherheitsexperte gegangen ist, wobei er anmerkte, dass die „Sicherheitskultur und -prozesse hinter glänzenden Produkten zurückgetreten sind“.

OpenAIs Antwort

Als Reaktion auf diese Vorwürfe wies Lindsey Held, eine Sprecherin von OpenAI, die Behauptungen aus dem Bericht von The Washington Post entschieden zurück und erklärte: „Wir haben an unserem Sicherheitsprozess keine Abkürzungen genommen, obwohl wir erkennen, dass der Start stressig für unsere Teams war.“ Diese öffentliche Ablehnung deutet darauf hin, dass OpenAI bestrebt ist, seinen Ruf angesichts der zunehmenden Überprüfung zu wahren.

Gesetzliche Hintergründe und laufende Ermittlungen

Dieses Schreiben dient nicht nur dazu, die Bedenken der Mitarbeiter anzusprechen, sondern auch als kritische legislative Antwort. Es erfolgt vor dem Hintergrund früherer Initiativen zur Stärkung des Whistleblower-Schutzes, wie dem FTC Whistleblower Act und dem SEC Whistleblower Reform Act. Es gibt Hinweise darauf, dass Strafverfolgungsbehörden bereits Ermittlungen gegen OpenAI wegen möglicher Antitrust-Verstöße und unsicherer Datenpraktiken durchführen.

Blick voraus: Anforderungen an Informationen

Die Gesetzgeber haben von Altman spezifische Informationen zur Nutzung einer neu eingerichteten KI-Sicherheits-Hotline für Mitarbeiter, zu den Nachverfahrensweisen zu Berichten und zu einem vollständigen Überblick über Fälle angefordert, in denen OpenAI-Produkte Sicherheitsprotokolle umgangen haben. Sie erkundigten sich auch nach finanziellen Interessenkonflikten, die Altman bei der Aufsicht betreffen, und betonten die Notwendigkeit von Verantwortlichkeit.

Umfassende Implikationen von KI-Technologien

Warren wies auf Altmans lautstarke Haltung zu den potenziellen Gefahren von KI-Technologien hin. In einer Senatsanhörung im vergangenen Jahr warnte er, dass KI zu „signifikant destabilisierenden“ Konsequenzen für die öffentliche Sicherheit und nationale Sicherheit führen könnte. Diese Warnung steht in engem Zusammenhang mit den jüngsten legislativen Bemühungen in Kalifornien, wo Senator Scott Wiener für Vorschriften plädiert, die große Sprachmodelle betreffen, und vorschlägt, dass Unternehmen rechtlich für schädliche Anwendungen ihrer KI-Technologien zur Verantwortung gezogen werden sollten.

Fazit

Der fortlaufende Dialog über die Sicherheitspraktiken von OpenAI spiegelt breitere Bedenken hinsichtlich der KI-Technologien in der Gesellschaft wider. Während die Gesetzgeber Verantwortlichkeit fordern, reichen die Implikationen dieser Diskussionen weit über ein einzelnes Unternehmen hinaus und berühren die ethischen Verantwortlichkeiten aller KI-Entwickler, um die öffentliche Sicherheit und das Vertrauen zu gewährleisten.

Weiterlesen

Tesla Robotaxi prototype at the reveal event.
Instagram carousel feature expanded to 20 slides for posts.

Hinterlasse einen Kommentar

Alle Kommentare werden vor der Veröffentlichung geprüft.

Diese Website ist durch hCaptcha geschützt und es gelten die allgemeinen Geschäftsbedingungen und Datenschutzbestimmungen von hCaptcha.