KI für Ihr Unternehmen – Jetzt Demo buchen

Ehemaliger OpenAI Mitarbeiter warnt US Senat vor Risiken durch AGI-Entwicklung

Kategorien:
No items found.
Freigegeben:
September 19, 2024

Artikel jetzt als Podcast anhören

Inhaltsverzeichnis

    Artikel über AGI-Systeme

    Warnung vor möglichen AGI-Systemen innerhalb von drei Jahren: Ehemaliger OpenAI-Mitarbeiter informiert US-Senat

    Einführung

    In einer jüngsten Anhörung vor dem US-Senat äußerten ehemalige Mitarbeiter von OpenAI und anderen Technologiegiganten ernsthafte Bedenken hinsichtlich der Sicherheitspraktiken dieser Unternehmen. Sie warnten vor den potenziellen Gefahren, die von fortschrittlicher künstlicher Intelligenz ausgehen könnten.

    Ernste Vorwürfe gegen OpenAI

    William Saunders, ein ehemaliger Mitarbeiter von OpenAI, machte während der Senatsanhörung schwere Vorwürfe gegen seinen früheren Arbeitgeber. Saunders behauptete, dass OpenAI die Sicherheit zugunsten einer schnellen Entwicklung der künstlichen Intelligenz vernachlässige.

    "Ohne rigorose Tests könnten Entwickler gefährliche Fähigkeiten übersehen," warnte Saunders. Er führte ein Beispiel an, bei dem das neue AI-System von OpenAI Experten bei der Planung der Reproduktion einer bekannten biologischen Bedrohung unterstützen könnte.

    Potenziale und Risiken von AGI

    Nach Saunders könnte ein System der allgemeinen künstlichen Intelligenz (AGI) in nur drei Jahren entwickelt werden. Er verwies auf die Leistung des kürzlich veröffentlichten o1-Modells von OpenAI in Mathematik- und Programmierwettbewerben als Beweis: "Das neue System von OpenAI springt von 'nicht qualifiziert' zu 'Goldmedaillengewinner' und übertrifft mich in einem Bereich, der für meinen eigenen Job relevant ist. Es gibt noch erhebliche Lücken zu schließen, aber ich halte es für plausibel, dass ein AGI-System in nur drei Jahren entwickelt werden könnte."

    Ein solches System könnte die meisten wirtschaftlich wertvollen Arbeiten besser als Menschen ausführen, was erhebliche Risiken wie autonome Cyberangriffe oder die Unterstützung bei der Entwicklung biologischer Waffen mit sich brächte.

    Kritik an internen Sicherheitsmaßnahmen

    Saunders kritisierte auch die internen Sicherheitsmaßnahmen von OpenAI. "Als ich bei OpenAI war, gab es lange Zeiträume, in denen es Schwachstellen gab, die es mir oder Hunderten anderer Ingenieure im Unternehmen ermöglicht hätten, Zugangskontrollen zu umgehen und die fortschrittlichsten AI-Systeme des Unternehmens, einschließlich GPT-4, zu stehlen," sagte er.

    Forderung nach stärkerer Regulierung

    Um Risiken zu minimieren, forderte Saunders eine stärkere Regulierung der AI-Industrie. "Wenn irgendeine Organisation Technologie entwickelt, die erhebliche Risiken für alle mit sich bringt, müssen die Öffentlichkeit und die wissenschaftliche Gemeinschaft in die Entscheidung darüber einbezogen werden, wie diese Risiken vermieden oder minimiert werden können," betonte er.

    Weitere Kritik von ehemaligen OpenAI-Mitarbeitern

    Auch Helen Toner, ein ehemaliges Vorstandsmitglied von OpenAI, kritisierte die fragilen internen Kontrollmechanismen der Unternehmen. Sie berichtete von Fällen, in denen Sicherheitsbedenken ignoriert wurden, um Produkte schneller auf den Markt zu bringen. Toner erklärte, es sei unmöglich, dass Unternehmen die Interessen der Allgemeinheit vollständig berücksichtigen könnten, wenn sie allein für detaillierte Entscheidungen über Sicherheitsmaßnahmen verantwortlich sind.

    David Evan Harris, ein ehemaliger Mitarbeiter von Meta, kritisierte die Reduzierung von Sicherheitsteams in der gesamten Branche. Er warnte davor, sich auf freiwillige Selbstregulierung zu verlassen und forderte verbindliche gesetzliche Regelungen.

    Empfehlungen der Experten

    Die Experten forderten einstimmig eine stärkere staatliche Regulierung der AI-Industrie, einschließlich verbindlicher Transparenzanforderungen für hochriskante AI-Systeme, erhöhter Investitionen in die Forschung zur AI-Sicherheit, dem Aufbau eines robusten Ökosystems für unabhängige Prüfungen, verbessertem Schutz für Whistleblower, erhöhter technischer Expertise in Regierungsbehörden und Klarstellungen zur Haftung für AI-bezogene Schäden.

    Die Experten betonten, dass eine angemessene Regulierung die Innovation nicht behindern, sondern fördern würde. Klare Regeln würden das Vertrauen der Verbraucher stärken und den Unternehmen Planungssicherheit geben.

    Reaktion des US-Senats

    Senator Richard Blumenthal, Vorsitzender des Unterausschusses, kündigte an, dass er bald einen Gesetzentwurf zur AI-Regulierung vorlegen werde.

    OpenAI und die Zusammenarbeit mit der US-Regierung

    Die Kritik von Saunders und anderen ist Teil einer Reihe von Warnungen ehemaliger OpenAI-Mitarbeiter. Erst kürzlich wurde bekannt, dass OpenAI offenbar die Sicherheitstests für sein AI-Modell GPT-4 Omni verkürzt hatte. Laut einem Bericht der Washington Post sollen die Tests in nur einer Woche abgeschlossen worden sein, was bei einigen Mitarbeitern für Unmut sorgte.

    OpenAI wies die Vorwürfe zurück und erklärte, das Unternehmen habe "keine Abkürzungen in unserem Sicherheitsprozess" genommen und "umfassende interne und externe" Tests durchgeführt, um politische Verpflichtungen zu erfüllen.

    Seit November letzten Jahres hat OpenAI mehrere Mitarbeiter verloren, die an der AI-Sicherheit arbeiteten, darunter der ehemalige Chef-Wissenschaftler Ilya Sutskever und Jan Leike, die gemeinsam das Superalignment-Team leiteten.

    Diese Woche stellte OpenAI ein neues "Sicherheits- und Sicherheitsausschuss" unter der Leitung von Zico Kolter vor, das weitreichende Befugnisse zur Überwachung der Sicherheitsmaßnahmen bei der Entwicklung und Einführung von AI-Modellen hat. Wenige Wochen zuvor hatte OpenAI eine Vereinbarung mit dem US National Institute of Standards and Technology (NIST) getroffen, die dem US AI Safety Institute Zugang zu neuen AI-Modellen vor und nach deren Veröffentlichung gewährt, um gemeinsam an der Forschung, Prüfung und Bewertung der AI-Sicherheit zu arbeiten.

    Zusammenfassung

    William Saunders, ein ehemaliger OpenAI-Entwickler, kritisierte die Sicherheitspraktiken des Unternehmens in einer Anhörung vor dem US-Senat. Er warnte vor den potenziellen Gefahren der künstlichen Intelligenz und forderte mehr Transparenz und unabhängige Kontrollen.

    Nach Saunders vernachlässige OpenAI die Sicherheit zugunsten einer schnellen AI-Entwicklung. Er führte Beispiele für potenzielle Risiken an, wie die Unterstützung bei der Reproduktion biologischer Bedrohungen oder autonome Cyberangriffe. Er kritisierte auch Schwächen in den internen Sicherheitsmaßnahmen von OpenAI.

    Neben Saunders äußerten drei weitere ehemalige Mitarbeiter führender AI-Unternehmen Bedenken hinsichtlich der Sicherheitsstandards in der Branche. Sie forderten eine stärkere staatliche Regulierung, einschließlich verbindlicher Transparenzanforderungen und erhöhter Investitionen in die Forschung zur AI-Sicherheit.

    Quellen

    - https://www.judiciary.senate.gov/imo/media/doc/2024-09-17_pm_-_testimony_-_saunders.pdf - https://www.techtarget.com/searchcio/news/366610955/Former-OpenAI-associates-fear-AGI-lack-of-US-AI-policy - https://www.reddit.com/r/singularity/comments/1fk82a7/ai_discusses_possibility_of_agi_in_three_years/ - https://www.c-span.org/video/?538459-1/google-openai-employees-testify-artificial-intelligence-regulation - https://www.youtube.com/watch?v=dzQlRt3y5mU - https://www.theguardian.com/technology/article/2024/aug/03/open-ai-sam-altman-chatgpt-gary-marcus-taming-silicon-valley - https://www.nytimes.com/2024/06/04/technology/openai-culture-whistleblowers.html - https://www.reuters.com/technology/sam-altmans-ouster-openai-was-precipitated-by-letter-board-about-ai-breakthrough-2023-11-22/ - https://www.youtube.com/watch?v=WLJJsIy1x44 - https://techpolicy.press/senate-homeland-security-committee-considers-philosophy-of-artificial-intelligence
    Mindverse vs ChatGPT Plus Widget

    Warum Mindverse Studio?

    Entdecken Sie die Vorteile gegenüber ChatGPT Plus

    Sie nutzen bereits ChatGPT Plus? Das ist ein guter Anfang! Aber stellen Sie sich vor, Sie hätten Zugang zu allen führenden KI-Modellen weltweit, könnten mit Ihren eigenen Dokumenten arbeiten und nahtlos im Team kollaborieren.

    🚀 Mindverse Studio

    Die professionelle KI-Plattform für Unternehmen – leistungsstärker, flexibler und sicherer als ChatGPT Plus. Mit über 50 Modellen, DSGVO-konformer Infrastruktur und tiefgreifender Integration in Unternehmensprozesse.

    ChatGPT Plus

    ❌ Kein strukturierter Dokumentenvergleich

    ❌ Keine Bearbeitung im Dokumentkontext

    ❌ Keine Integration von Unternehmenswissen

    VS

    Mindverse Studio

    ✅ Gezielter Dokumentenvergleich mit Custom-Prompts

    ✅ Kontextbewusste Textbearbeitung im Editor

    ✅ Wissensbasierte Analyse & Zusammenfassungen

    📚 Nutzen Sie Ihr internes Wissen – intelligent und sicher

    Erstellen Sie leistungsstarke Wissensdatenbanken aus Ihren Unternehmensdokumenten.Mindverse Studio verknüpft diese direkt mit der KI – für präzise, kontextbezogene Antworten auf Basis Ihres spezifischen Know-hows.DSGVO-konform, transparent und jederzeit nachvollziehbar.

    ChatGPT Plus

    ❌ Nur ein Modellanbieter (OpenAI)

    ❌ Keine Modellauswahl pro Use Case

    ❌ Keine zentrale Modellsteuerung für Teams

    VS

    Mindverse Studio

    ✅ Zugriff auf über 50 verschiedene KI-Modelle

    ✅ Modellauswahl pro Prompt oder Assistent

    ✅ Zentrale Steuerung auf Organisationsebene

    🧠 Zugang zu allen führenden KI-Modellen – flexibel & anpassbar

    OpenAI GPT-4: für kreative Texte und allgemeine Anwendungen
    Anthropic Claude: stark in Analyse, Struktur und komplexem Reasoning
    Google Gemini: ideal für multimodale Aufgaben (Text, Bild, Code)
    Eigene Engines: individuell trainiert auf Ihre Daten und Prozesse

    ChatGPT Plus

    ❌ Keine echte Teamkollaboration

    ❌ Keine Rechte- oder Rollenverteilung

    ❌ Keine zentrale Steuerung oder Nachvollziehbarkeit

    VS

    Mindverse Studio

    ✅ Teamübergreifende Bearbeitung in Echtzeit

    ✅ Granulare Rechte- und Freigabeverwaltung

    ✅ Zentrale Steuerung & Transparenz auf Organisationsebene

    👥 Kollaborative KI für Ihr gesamtes Unternehmen

    Nutzen Sie Mindverse Studio als zentrale Plattform für abteilungsübergreifende Zusammenarbeit.Teilen Sie Wissen, erstellen Sie gemeinsame Workflows und integrieren Sie KI nahtlos in Ihre täglichen Prozesse – sicher, skalierbar und effizient.Mit granularen Rechten, transparenter Nachvollziehbarkeit und Echtzeit-Kollaboration.

    Bereit für den nächsten Schritt?

    Sehen Sie Mindverse Studio in Aktion. Buchen Sie eine persönliche 30-minütige Demo.

    🎯 Kostenlose Demo buchen

    Wie können wir Ihnen heute helfen?

    Das Expertenteam von Mindverse freut sich darauf, Ihnen zu helfen.
    Herzlichen Dank! Deine Nachricht ist eingegangen!
    Oops! Du hast wohl was vergessen, versuche es nochmal.

    🚀 Neugierig auf Mindverse Studio?

    Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.

    🚀 Demo jetzt buchen