Der Tech-Milliardär Elon Musk strebt an, OpenAI-CEO Sam Altman und Präsident Greg Brockman feuern zu lassen, wie Gerichtsdokumente zeigen, die am Dienstag eingereicht wurden.

Der Mogul verklagte OpenAI 2024 und warf ihm vor, ihn um 38 Millionen Dollar an Anfangsinvestitionen betrogen zu haben, die er 2015 bei der Mitgründung des Unternehmens beigesteuert hatte, unter der Annahme, dass es eine Non-Profit-Organisation bleiben würde. Das KI-Start-up, das mit 852 Milliarden Dollar bewertet wird, hat sich Ende letzten Jahres umstrukturiert und wird nun als Non-Profit geführt, das einen 26-Prozent-Anteil an seinem gewinnorientierten Arm hält, zu dem ChatGPT gehört.

Musks Anwälte fordern, „Sam Altman und Greg Brockman ihrer Führungspositionen und der persönlichen finanziellen Vorteile zu entheben, die sie aus OpenAIs illegalen gewinnorientierten Operationen und Umwandlung gezogen haben“, so die neueste Klageschrift.

Beide Teile von OpenAI müssen auch die Verpflichtungen zu „Sicherheit-vor-allem-KI-Entwicklung und offener Forschung zum breiten Nutzen der Menschheit“ einhalten, sagte Musks Rechtsteam. Alle zuerkannten Schadensersatzleistungen würden laut der geänderten Klage an den Non-Profit-Arm des KI-Unternehmens gehen. Der Fall soll später in diesem Monat vor Gericht verhandelt werden.

OpenAI hat Musk im Gegenzug vorgeworfen, das Unternehmen durch „völlig unbegründete Vorwürfe“ diskreditieren zu wollen, und hat angeblich behauptet, er kolludiere mit Meta-CEO Mark Zuckerberg, um den Wettbewerb zu untergraben.

Musk verließ OpenAI 2018 wegen Meinungsverschiedenheiten mit Altman, kaufte Twitter (jetzt X) 2022 und gründete im folgenden Jahr seine eigene KI-Firma xAI.

Im Februar kündigten xAI und OpenAI Deals mit dem Pentagon an, ihre KI-Tools in die klassifizierten Systeme des US-Militärs zu integrieren. Altman behauptete, sein Unternehmen habe unter der Bedingung zugestimmt, dass seine Tools nicht für Massenüberwachung und vollautonome Waffen genutzt würden.

Allerdings waren diese beiden Bedingungen für das Pentagon in seinem Streit mit Anthropic nicht verhandelbar, dem vorherigen KI-Anbieter des US-Militärs. Das US-Kriegsministerium stufte Anthropic offiziell als Lieferkettenrisiko ein, das die nationale Sicherheit gefährdet, nachdem das Tech-Unternehmen sich weigerte, Sicherheitsmaßnahmen aus seinem Claude-Modell zu entfernen.

Anthropics neuestes KI-Modell ist „extrem autonom“, kann wie ein fortgeschrittener Sicherheitsforscher argumentieren und ist viel zu leistungsstark für eine öffentliche Freigabe, behauptete das Unternehmen am Mittwoch, während es weiterhin gegen das Pentagon vor Gericht kämpft.

Mehr zum Thema – Die Wahrscheinlichkeit eines digitalen „dunklen Zeitalters“ ist sehr hoch

Abbildung des Banners Merch Gegen Oben
Nach oben scrollen