NIST startet eine neue Plattform zur Bewertung von generativer KI

Das National Institute of Standards and Technology (NIST), die Agentur des US-Handelsministeriums, die Technologien für die US-Regierung, Unternehmen und die breite Öffentlichkeit entwickelt und testet, gab am Montag die Einführung von NIST GenAI bekannt, einem neuen Programm, das von NIST ins Leben gerufen wurde, um generative KI-Technologien wie text- und bildgenerierende KI zu bewerten.

NIST GenAI wird Benchmarks veröffentlichen, bei der Erstellung von Systemen zur „Inhaltsauthentizität“-Erkennung (d.h. Deepfake-Überprüfung) helfen und die Entwicklung von Software fördern, um die Quelle von gefälschten oder irreführenden KI-generierten Informationen zu identifizieren, erklärt NIST auf der neu gestarteten NIST GenAI-Website und in einer Pressemitteilung.

„Das NIST GenAI-Programm wird eine Reihe von Herausforderungsproblemen [beabsichtigen], um die Fähigkeiten und Grenzen generativer KI-Technologien zu bewerten und zu messen“, heißt es in der Pressemitteilung. „Diese Bewertungen werden verwendet, um Strategien zur Förderung der Informationsintegrität zu identifizieren und den sicheren und verantwortungsvollen Umgang mit digitalen Inhalten zu leiten.“

Das erste Projekt von NIST GenAI ist eine Pilotstudie zur Entwicklung von Systemen, die zuverlässig zwischen von Menschen erstellten und KI-generierten Medien unterscheiden können, beginnend mit Text. (Obwohl viele Dienste vorgeben, Deepfakes zu erkennen, haben Studien und unser eigener Test gezeigt, dass sie bestenfalls fragwürdig sind, insbesondere bei Texten.) NIST GenAI lädt Teams aus der Akademie, Industrie und Forschungslaboren ein, entweder „Generatoren“ - KI-Systeme zur Generierung von Inhalten - oder „Diskriminator“ einzureichen, die Systeme sind, die entwickelt wurden, um KI-generierte Inhalte zu identifizieren.

Generatoren in der Studie müssen 250-Wörter-oder-weniger-Zusammenfassungen zu einem Thema und einer Reihe von Dokumenten generieren, während Diskriminatoren erkennen müssen, ob eine gegebene Zusammenfassung möglicherweise von KI geschrieben wurde. Um Fairness zu gewährleisten, wird NIST GenAI die für die Generatoren erforderlichen Daten bereitstellen. Systeme, die mit öffentlich verfügbaren Daten trainiert sind und die „[den] geltenden Gesetzen und Vorschriften [entsprechen]“ werden nicht akzeptiert“, sagt NIST.

Die Registrierung für die Pilotstudie beginnt am 1. Mai, wobei die erste Runde am 2. August endet. Die endgültigen Ergebnisse der Studie sollen im Februar 2025 veröffentlicht werden.

Der Start von NIST GenAI und die auf Deepfakes ausgerichtete Studie erfolgen inmitten des exponentiellen Wachstums an KI-generierten Fehlinformationen und Desinformationen.

Laut Daten von Clarity, einem Unternehmen für Deepfake-Erkennung, wurden in diesem Jahr 900% mehr Deepfakes erstellt und veröffentlicht als im gleichen Zeitraum des letzten Jahres. Es verursacht verständlicherweise Alarm. Eine jüngste Umfrage von YouGov ergab, dass 85 % der Amerikaner besorgt über die Verbreitung irreführender Deepfakes im Internet waren.

Der Start von NIST GenAI ist Teil der Reaktion von NIST auf die Präsidentenverfügung von Joe Biden zu KI, die Regeln festlegt, die eine größere Transparenz von KI-Unternehmen darüber erfordern, wie ihre Modelle funktionieren, und eine Vielzahl neuer Standards eingeführt hat, einschließlich der Kennzeichnung von Inhalten, die von KI generiert wurden.

Es ist auch die erste Ankündigung im Zusammenhang mit KI von NIST nach der Ernennung von Paul Christiano, einem ehemaligen Forscher von OpenAI, zum AI Safety Institute der Agentur.

Christiano war eine umstrittene Wahl aufgrund seiner „Doomerist“-Ansichten; er sagte einmal voraus, dass „es eine 50%ige Chance gibt, dass die KI-Entwicklung in der [Zerstörung der Menschheit] enden könnte“. Kritiker, Berichten zufolge einschließlich Wissenschaftler innerhalb von NIST, befürchten, dass Cristiano das AI Safety Institute dazu verleiten könnte, sich auf „Fantasieszenarien“ anstatt auf realistische, unmittelbarere Risiken durch KI zu konzentrieren.

NIST gibt an, dass NIST GenAI die Arbeit des AI Safety Institute informieren wird.