KI für Ihr Unternehmen – Jetzt Demo buchen

OpenAI und Anthropic uneins über kalifornisches KI-Sicherheitsgesetz

Kategorien:
No items found.
Freigegeben:
August 27, 2024

KI sauber im Unternehmen integrieren: Der 5-Schritte-Plan

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg

1
🎯

Strategie & Zieldefinition

Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.

✓ Messbare KPIs definiert

2
🛡️

Daten & DSGVO-Compliance

Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.

✓ 100% DSGVO-konform

3
⚙️

Technologie- & Tool-Auswahl

Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.

✓ Beste Lösung für Ihren Fall

4
🚀

Pilotprojekt & Integration

Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.

✓ Ergebnisse in 4-6 Wochen

5
👥

Skalierung & Team-Schulung

Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.

✓ Ihr Team wird KI-fit

Inhaltsverzeichnis

    mindverse studio – Ihre Plattform für digitale Effizienz

    Optimieren Sie Prozesse, automatisieren Sie Workflows und fördern Sie Zusammenarbeit – alles an einem Ort.
    Mehr über Mindverse Studio erfahren
    OpenAI und Anthropic: Differenzen über neues AI-Gesetz zur Vermeidung katastrophaler Risiken

    OpenAI und Anthropic: Differenzen über neues AI-Gesetz zur Vermeidung katastrophaler Risiken

    Einleitung

    In der Welt der künstlichen Intelligenz (KI) gibt es derzeit eine hitzige Debatte über ein vorgeschlagenes kalifornisches Gesetz, das darauf abzielt, KI-Modelle zu regulieren, die "katastrophale Risiken" für Menschen und die Cybersicherheit darstellen könnten. Dieses Gesetzesvorhaben, bekannt als SB 1047, hat zu einer Spaltung unter den führenden KI-Unternehmen des Silicon Valley geführt. Während OpenAI gegen das Gesetz argumentiert, unterstützt Anthropic es mit einigen Vorbehalten.

    Hintergrund des Gesetzes

    SB 1047, auch bekannt als "Safe and Secure Innovation for Frontier Artificial Intelligence Models Act", hat das Ziel, KI-Modelle zu regulieren, die potenziell katastrophale Risiken bergen. Das Gesetz verlangt von Unternehmen, die hochriskante KI-Modelle entwickeln, Sicherheits- und Schutzprotokolle (SSPs) zu erstellen, diese zu veröffentlichen und jährliche Prüfungen durch Dritte ab 2026 zu durchlaufen. Entwickler müssen zudem Compliance-Erklärungen einreichen und AI-Sicherheitsvorfälle melden. Das Gesetz definiert spezifische KI-Modelle, die der Regulierung unterliegen. Dazu gehören Modelle, die mit mehr als 10^26 Integer- oder Gleitkommaoperationen trainiert wurden und mehr als 100 Millionen US-Dollar kosten. Es umfasst auch Modelle, die durch Feinabstimmung solcher Systeme mit mindestens 3x10^25 Operationen und Kosten von mehr als 10 Millionen US-Dollar erstellt wurden. Ein neues "Board of Frontier Models" wird diese Definitionen im Laufe der Zeit aktualisieren.

    Position von OpenAI

    OpenAI, das Unternehmen hinter ChatGPT, hat seine Ablehnung des Gesetzes in einem Brief an den kalifornischen Gouverneur Gavin Newsom deutlich gemacht. Das Unternehmen argumentiert, dass die Regulierung von KI-Modellen auf Bundesebene erfolgen sollte, da nationale Sicherheitsbelange betroffen sind. OpenAI warnt auch davor, dass das Gesetz die Führungsrolle Kaliforniens in der KI-Entwicklung gefährden und Unternehmen aus dem Staat vertreiben könnte. Jason Kwon, Chief Strategy Officer von OpenAI, schreibt: "Die breiten und signifikanten Auswirkungen von KI auf die Wettbewerbsfähigkeit der USA und die nationale Sicherheit erfordern, dass die Regulierung von Spitzenmodellen auf Bundesebene gestaltet und umgesetzt wird. Ein bundesweit geführter Satz von KI-Richtlinien, anstelle eines Flickenteppichs aus staatlichen Gesetzen, wird Innovation fördern und die USA in die Lage versetzen, die Entwicklung globaler Standards zu führen."

    Position von Anthropic

    Anthropic, der Schöpfer des AI-Chatbots Claude, hat in einem eigenen Brief an Gouverneur Newsom eine andere Haltung eingenommen. Das Unternehmen unterstützt das Gesetz grundsätzlich, obwohl es einige Vorbehalte hat. Anthropic sieht SB 1047 als einen entscheidenden Schritt zur Minderung katastrophaler Risiken durch KI-Systeme. Laut Anthropic adressiert das Gesetz berechtigte Bedenken hinsichtlich der sich schnell entwickelnden KI-Fähigkeiten. Während dieser Fortschritt großes wirtschaftliches Potenzial für Kalifornien birgt, sind auch erhebliche Gefahren damit verbunden. Das Unternehmen warnt, dass ernsthafter Missbrauch von KI innerhalb von ein bis drei Jahren auftreten könnte. Anthropic lobt die Anforderung von SB 1047, dass KI-Unternehmen Sicherheits- und Schutzprotokolle (SSPs) entwickeln und transparente Informationen darüber bereitstellen müssen. Das Gesetz incentiviert auch effektive SSPs, indem es die Haftung für Schäden mit der Qualität der Protokolle verknüpft. Darüber hinaus fördert SB 1047 die Forschung zur Minderung von KI-Risiken.

    Kritik von ehemaligen OpenAI-Mitarbeitern

    Ehemalige Mitarbeiter von OpenAI haben sich ebenfalls zu Wort gemeldet und ihrem früheren Arbeitgeber vorgeworfen, die Öffentlichkeit in Bezug auf KI-Sicherheit zu täuschen. In einem offenen Brief behaupten William Saunders und Daniel Kokotajlo, dass sie OpenAI verlassen haben, weil sie das Vertrauen in das Engagement des Unternehmens für eine sichere, ehrliche und verantwortungsvolle KI-Entwicklung verloren haben. Saunders und Kokotajlo werfen OpenAI vor, Sicherheitsprotokolle ignoriert und interne Kritiker zum Schweigen gebracht zu haben, trotz anderslautender öffentlicher Bekundungen. Sie kritisieren auch die aktuelle Ablehnung von OpenAI gegenüber der Regulierung und weisen darauf hin, dass CEO Sam Altman diese zuvor öffentlich unterstützt hatte. Die ehemaligen Mitarbeiter loben hingegen die nuancierte Haltung von Anthropic zu dem Gesetz.

    Reaktionen von Senator Scott Wiener

    Senator Scott Wiener, der Autor des Gesetzes, weist die Kritik von OpenAI zurück. Er argumentiert, dass das Unternehmen es versäumt habe, auf spezifische Bestimmungen des Gesetzes einzugehen, und stattdessen fordere, dass die Regulierung dem Kongress überlassen werde, der bisher jedoch nicht gehandelt habe. Wiener bezeichnet die Behauptungen, dass Unternehmen Kalifornien verlassen würden, als "abgedroschenes Argument" und stellt fest, dass SB 1047 für alle Unternehmen gilt, die im Staat Geschäfte machen, unabhängig von ihrem Hauptsitz. "Unterm Strich: SB 1047 ist ein äußerst vernünftiges Gesetz, das große KI-Labore dazu auffordert, das zu tun, was sie bereits zugesagt haben, nämlich ihre großen Modelle auf katastrophale Sicherheitsrisiken zu testen," schreibt Wiener. Wiener verweist auch auf die Unterstützung von SB 1047 durch hochrangige Sicherheitsexperten. Der pensionierte Generalleutnant John Shanahan bezeichnete das Gesetz als ausgewogen und praktisch, um die gefährlichsten unmittelbaren Risiken für die Gesellschaft und die nationale Sicherheit anzugehen. Andrew Weber, ein ehemaliger Pentagon-Beamter, betonte die Notwendigkeit strikter Cybersicherheitsmaßnahmen für fortschrittliche KI-Systeme, um zu verhindern, dass sie in die falschen Hände geraten. Das Gesetz wird nun im Staatsparlament zur Beratung und Abstimmung vorgelegt. Sollte es verabschiedet werden, wird Gouverneur Newsom entscheiden, ob er es in Kraft setzen oder ein Veto einlegen wird.

    Fazit

    Das vorgeschlagene kalifornische Gesetz SB 1047 zielt darauf ab, KI-Modelle zu regulieren, die katastrophale Risiken bergen könnten. Das Gesetz verlangt von Unternehmen, Sicherheitsprotokolle für hochriskante KI-Systeme zu erstellen, zu veröffentlichen und prüfen zu lassen. Es schützt auch Whistleblower, die potenzielle Gefahren melden. OpenAI lehnt das Gesetz ab und argumentiert, dass die Regulierung von KI auf Bundesebene erfolgen sollte. Im Gegensatz dazu unterstützt Anthropic SB 1047 vorsichtig und sieht darin einen entscheidenden Schritt zur Minderung katastrophaler KI-Risiken, obwohl es einige Bedenken bezüglich der Umsetzung hat. Ehemalige OpenAI-Mitarbeiter haben dem Unternehmen vorgeworfen, die Öffentlichkeit zu täuschen und Sicherheitsmaßnahmen zu vernachlässigen. Sie loben die differenzierte Herangehensweise von Anthropic an das Gesetz. Prominente Sicherheitsexperten befürworten SB 1047 und sehen es als ausgewogene und notwendige Maßnahme, um unmittelbare AI-bezogene Risiken für die Gesellschaft und die nationale Sicherheit anzugehen. Bibliografie: - https://the-decoder.com/openai-and-anthropic-split-over-new-ai-law-targeting-catastrophic-risks/ - https://press.un.org/en/2023/sc15359.doc.htm - https://www.theinformation.com/articles/openai-plays-catch-up-with-anthropic-on-calculating-catastrophic-ai-risks - https://cdn.openai.com/papers/practices-for-governing-agentic-ai-systems.pdf - https://www.anthropic.com/news/anthropics-responsible-scaling-policy - https://www.robertdiab.ca/papers/AIrisk.pdf - https://researchbriefings.files.parliament.uk/documents/POST-PN-0708/POST-PN-0708.pdf - https://80000hours.org/podcast/episodes/nick-joseph-anthropic-safety-approach-responsible-scaling/ - https://hai.stanford.edu/sites/default/files/2024-02/White-Paper-Rethinking-Privacy-AI-Era.pdf - https://www.vox.com/future-perfect/23794855/anthropic-ai-openai-claude-2

    Artikel jetzt als Podcast anhören

    Kunden die uns vertrauen:
    Arise Health logoArise Health logoThe Paak logoThe Paak logoOE logo2020INC logoEphicient logo
    und viele weitere mehr!

    Bereit für den nächsten Schritt?

    Das Expertenteam von Mindverse freut sich darauf, Ihnen zu helfen.
    Herzlichen Dank! Deine Nachricht ist eingegangen!
    Oops! Du hast wohl was vergessen, versuche es nochmal.

    🚀 Neugierig auf Mindverse Studio?

    Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.

    🚀 Demo jetzt buchen