Verschiedenes

Sam Altman tritt aufgrund von Prüfungen aus der Sicherheitskommission von OpenAI zurück

Der CEO von OpenAI, Sam Altman, ist aus dem internen Sicherheitsausschuss des Unternehmens zurückgetreten, einer Gruppe, die im Mai gegründet wurde, um wichtige Sicherheitsentscheidungen zu überwachen. Altmans Abgang erfolgt zu einem Zeitpunkt, als US-Gesetzgeber und ehemalige Mitarbeiter von OpenAI Bedenken hinsichtlich der Sicherheit und der Einhaltung gesetzlicher Vorschriften des Unternehmens äußerten .

Der Sicherheitsausschuss wird nun als separater Ausschuss auf Vorstandsebene arbeiten, der Sicherheitsfragen überwacht. Diese Verschiebung hat Zico Kolter, einen Professor von der Carnegie Mellon University, zum Vorsitzenden ernannt, zusammen mit Quora-CEO Adam D’Angelo, dem pensionierten US-Armeegeneral Paul Nakasone und der ehemaligen Sony-Managerin Nicole Seligman. Sie alle sind aktuelle Mitglieder des OpenAI-Vorstands. Die Gruppe wird weiterhin die Macht haben, die Veröffentlichung von KI-Modellen zurückzuhalten, bis Sicherheitsbedenken ausgeräumt sind.

Kritiker stellen die Prioritäten von OpenAI in Frage, da wichtige Mitarbeiter ausscheiden

In einem Blogbeitrag nach Altmans Abgang bekräftigte OpenAI seinen Fokus auf Sicherheit und stellte fest, dass das Komitee zuvor die Sicherheit des neuesten Modells, o1, genehmigt hatte. Die Gruppe wird außerdem regelmäßig weitere Informationen vom Sicherheitspersonal des Unternehmens erhalten, um die Mitglieder über zukünftige Versionen von KI-Modellen auf dem Laufenden zu halten. Das Unternehmen sagte außerdem, es beabsichtige, die Sicherheitsmaßnahmen durch die Einführung technischer Überprüfungen und klar umrissener Ziele für Modelleinführungen zu verbessern.

Dies ist auf Kritik zurückzuführen, insbesondere von fünf US-Senatoren , die im Sommer ihre Besorgnis über die Sicherheitsmaßnahmen des Unternehmens geäußert hatten . Kritiker weisen zudem darauf hin , dass mehr als die Hälfte der Mitarbeiter, die mit der Bewältigung der langfristigen Folgen von KI betraut sind, das Unternehmen verlassen haben. Einige sagten, dass Altman sich mehr mit dem geschäftlichen Aspekt der KI als mit der Regulierung der Technologie beschäftigt.

Die Ausgaben von OpenAI sind gestiegen. Im ersten Halbjahr 2024 gab das Unternehmen 800.000 US-Dollar für Bundeslobbying aus, was eine deutliche Steigerung im Vergleich zu den 260.000 US-Dollar im gesamten Jahr 2023 darstellt. Anfang dieses Jahres wurde Altman Mitglied der Abteilung für Sicherheit und künstliche Intelligenz des US-Heimatschutzministeriums Sicherheitsrat. Das Gremium soll über den Einsatz von KI in den kritischen Systemen des Landes beraten.

Es gibt noch Fragen zur Selbstregulierung des KI-Riesen. In einem Meinungsbeitrag für The Economist haben die ehemaligen Vorstandsmitglieder von OpenAI, Helen Toner und Tasha McCauley, Zweifel an der Fähigkeit des Unternehmens geäußert, sich selbst zu überwachen. Sie behaupteten, dass Gewinnanreize die Selbstverwaltung von OpenAI untergraben könnten, was ihrer Meinung nach im Widerspruch zu den langfristigen Sicherheitszielen stehen könnte.

OpenAI strebt eine massive Finanzierung an und plant die Umstellung auf ein gewinnorientiertes Modell

OpenAI befindet sich Berichten zufolge in Gesprächen über die Sicherung einer massiven neuen Finanzierungsrunde, die seinen Wert auf 150 Milliarden US-Dollar steigern könnte. In einem aktuellen Bericht von Cryptopolitan plant OpenAI, sich bei seiner aktuellen Bewertung 6,5 Milliarden US-Dollar von Investoren zu sichern. Berichten zufolge plant OpenAI, sein aktuelles Betriebsmodell bis 2025 in ein traditionelles gewinnorientiertes Modell umzuwandeln.

Sam Altman, CEO von OpenAI, gab kürzlich bei einem Treffen die Veränderungen im Personal bekannt, verriet jedoch nicht viel darüber, was zu erwarten ist. Altmansagte, das Unternehmen sei für die derzeitige Struktur „zu groß geworden“ und bereit, vom Non-Profit-Modell abzuweichen.

Quelle

Click to rate this post!
[Total: 0 Average: 0]
Show More

Leave a Reply

Your email address will not be published. Required fields are marked *