Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen
Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Das National Institute of Standards and Technology (NIST) hat neue Richtlinien für Wissenschaftler herausgegeben, die mit dem US Artificial Intelligence Safety Institute (AISI) zusammenarbeiten. Diese Richtlinien entfernen Begriffe wie "KI-Sicherheit", "verantwortungsvolle KI" und "KI-Fairness" aus den erwarteten Kompetenzen der Mitglieder und fordern stattdessen die Priorisierung der "Reduzierung ideologischer Voreingenommenheit, um menschliches Gedeihen und wirtschaftliche Wettbewerbsfähigkeit zu ermöglichen".
Die neuen Anweisungen wurden Anfang März als Teil einer aktualisierten Kooperationsvereinbarung für die Mitglieder des AISI-Konsortiums verschickt. Zuvor ermutigte diese Vereinbarung Forscher, technische Arbeiten beizutragen, die dazu beitragen könnten, diskriminierendes Modellverhalten in Bezug auf Geschlecht, Herkunft, Alter oder Vermögensungleichheit zu identifizieren und zu beheben. Solche Verzerrungen sind von enormer Bedeutung, da sie sich direkt auf Endnutzer auswirken und Minderheiten sowie wirtschaftlich benachteiligte Gruppen überproportional schädigen können.
Die neue Vereinbarung entfernt auch die Erwähnung der Entwicklung von Werkzeugen "zur Authentifizierung von Inhalten und zur Verfolgung ihrer Herkunft" sowie zur "Kennzeichnung synthetischer Inhalte", was auf ein geringeres Interesse an der Verfolgung von Fehlinformationen und Deepfakes hindeutet. Sie legt außerdem Wert darauf, Amerika an erste Stelle zu setzen, indem sie eine Arbeitsgruppe auffordert, Testwerkzeuge zu entwickeln, "um Amerikas globale KI-Position auszubauen".
Diese Änderungen wurden von einigen Forschern kritisch aufgenommen. Ein Forscher einer mit dem AISI zusammenarbeitenden Organisation, der anonym bleiben möchte, äußerte die Befürchtung, dass die Vernachlässigung dieser Themen den normalen Nutzern schaden könnte, indem sie möglicherweise Algorithmen zulässt, die aufgrund von Einkommen oder anderen demografischen Merkmalen diskriminieren.
Elon Musk, der derzeit im Auftrag von Präsident Trump eine umstrittene Kampagne zur Reduzierung der Staatsausgaben und Bürokratie anführt, hat KI-Modelle von OpenAI und Google kritisiert. Er zitiert oft einen Vorfall, bei dem eines der Google-Modelle darüber debattierte, ob es falsch wäre, jemanden falsch zu gendern, selbst wenn dies eine nukleare Apokalypse verhindern würde – ein höchst unwahrscheinliches Szenario. Neben Tesla und SpaceX leitet Musk xAI, ein KI-Unternehmen, das in direkter Konkurrenz zu OpenAI und Google steht.
Zahlreiche Studien zeigen, dass politische Voreingenommenheit in KI-Modellen sowohl Liberale als auch Konservative beeinflussen kann. Beispielsweise zeigte eine 2021 veröffentlichte Studie über den Empfehlungsalgorithmus von Twitter, dass Nutzern auf der Plattform eher rechtsgerichtete Perspektiven angezeigt wurden.
Seit Januar fegt Musks sogenanntes Department of Government Efficiency (DOGE) durch die US-Regierung, entlässt Beamte, stoppt Ausgaben und schafft ein Umfeld, das als feindselig gegenüber Gegnern der Trump-Administration gilt. Einige Regierungsbehörden, wie das Bildungsministerium, haben Dokumente archiviert und gelöscht, die DEI (Diversity, Equity, and Inclusion) erwähnen. DOGE hat in den letzten Wochen auch das NIST, die Mutterorganisation des AISI, ins Visier genommen. Dutzende von Mitarbeitern wurden entlassen.
Stella Biderman, Geschäftsführerin von Eleuther, einer gemeinnützigen Organisation, die mit dem AISI zusammenarbeitet, sieht die Änderungen als direkte Folge der Prioritäten der Regierung. Im Dezember ernannte Trump David Sacks, einen langjährigen Mitarbeiter von Musk, zum KI- und Krypto-Zaren des Weißen Hauses. Es ist derzeit unklar, ob er oder jemand aus dem Weißen Haus an der Festlegung der neuen Forschungsagenda beteiligt war. Es ist auch ungewiss, ob die neue Formulierung große Auswirkungen auf die Arbeit der meisten Forscher haben wird.
Das AISI wurde durch eine von der Biden-Administration im Oktober 2023 erlassene Durchführungsverordnung in einer Zeit erhöhter Besorgnis über die rasanten Fortschritte im Bereich der KI geschaffen. Unter Biden wurde das Institut beauftragt, sich mit einer Reihe potenzieller Probleme der leistungsstärksten KI-Modelle zu befassen, z. B. ob sie für Cyberangriffe oder die Entwicklung chemischer oder biologischer Waffen verwendet werden könnten. Eine im Januar von der Trump-Administration erlassene Durchführungsverordnung widerrief Bidens Anordnung, behielt aber das AISI bei. "Um diese Führungsrolle zu erhalten, müssen wir KI-Systeme entwickeln, die frei von ideologischer Voreingenommenheit oder konstruierten sozialen Agenden sind", heißt es in der Durchführungsverordnung.
Vizepräsident JD Vance sagte auf dem AI Action Summit in Paris im Februar, dass die US-Regierung der amerikanischen Wettbewerbsfähigkeit im Wettlauf um die Entwicklung und Nutzung von KI Priorität einräumen wird. "Die KI-Zukunft wird nicht durch Handwringen über Sicherheit gewonnen werden", sagte Vance den Teilnehmern aus aller Welt. Die US-Delegation bei der Veranstaltung umfasste keine Vertreter des AISI.
Bibliography: https://www.wired.com/story/ai-safety-institute-new-directive-america-first/ https://www.linkedin.com/posts/gemmagclavell_under-trump-ai-scientists-are-told-to-remove-activity-7306479482402471937-f_sp https://www.facebook.com/wired/posts/scoop-ai-scientists-partnering-with-the-government-are-now-being-told-to-remove-/1024602766201982/ https://www.linkedin.com/posts/wired_under-trump-ai-scientists-are-told-to-remove-activity-7306645706314764288-FPcQ https://www.reddit.com/r/slatestarcodex/comments/1jbj70w/under_trump_ai_scientists_are_told_to_remove/ https://x.com/WIRED/status/1900693833945674045 https://www.youtube.com/watch?v=hqpt2WUffd8 https://www.reddit.com/r/artificial/ https://x.com/paldhous/status/1900735070559961375Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen