Die California State Assembly hat den Safe and Secure Innovation for Cutting-edge Artificial Intelligence Models Act (SB 1047) verabschiedet. Reuters Der Gesetzentwurf ist eine der ersten bedeutenden Regelungen zur künstlichen Intelligenz in den Vereinigten Staaten.

Der Gesetzentwurf, der im Silicon Valley und darüber hinaus heftige Diskussionen ausgelöst hat, würde von in Kalifornien tätigen KI-Unternehmen verlangen, eine Reihe von Vorsichtsmaßnahmen zu treffen, bevor sie ein ausgefeiltes Basismodell trainieren. Dazu gehört das Ermöglichen einer schnellen und vollständigen Abschaltung des Modells, das Sicherstellen, dass das Modell vor „gefährlichen Änderungen nach dem Training“ geschützt ist, und die Aufrechterhaltung eines Testverfahrens, um zu beurteilen, ob ein Modell oder seine Derivate besonders anfällig für Risiken sind, die „oder“ verursachen kritischen Schaden zulassen“.

Senator Scott Wiener, der Hauptautor des Gesetzentwurfs, sagte, SB 1047 sei völlig vernünftig und forderte große KI-Labore auf, das zu tun, wozu sie sich bereits verpflichtet hatten: ihre großen Modelle zu testen, um katastrophale Sicherheitsrisiken zu erkennen. „Wir haben das ganze Jahr über hart zusammen mit den Open-Source-Befürwortern Anthropic und anderen daran gearbeitet, den Gesetzentwurf zu verfeinern und zu verbessern. Der Gesetzentwurf SB 1047 ist auf der Grundlage unseres Wissens über die vorhersehbaren Risiken von KI gut abgestimmt und verdient eine gesetzliche Unterzeichnung. »

Kritiker von SB 1047 – darunter OpenAI und Anthropic, die Politiker Zoe Lofgren und Nancy Pelosi sowie die Handelskammer von Kalifornien – haben argumentiert, dass es sich zu sehr auf katastrophale Schäden konzentriere und kleinen Open-Source-KI-Entwicklern übermäßig schaden könnte. Als Reaktion darauf wurde der Gesetzentwurf geändert, indem potenzielle strafrechtliche Sanktionen durch zivilrechtliche Strafen ersetzt, die dem kalifornischen Generalstaatsanwalt gewährten Durchsetzungsbefugnisse reduziert und die Anforderungen für die Mitgliedschaft in einem durch den Gesetzentwurf geschaffenen „Border Model Council“ angepasst wurden.

Nachdem der Senat des Bundesstaates über den geänderten Gesetzentwurf abgestimmt hat – eine Abstimmung, die voraussichtlich angenommen wird – geht der Gesetzentwurf zur KI-Sicherheit an Gouverneur Gavin Newsom, der bis Ende September Zeit hat, über sein Schicksal zu entscheiden Die New York Times.

Anthropic lehnte eine Stellungnahme ab und verwies lediglich auf einen Brief, den Anthropic-CEO Dario Amodei letzte Woche an Gouverneur Newsom geschickt hatte. OpenAI lehnte eine Stellungnahme ab und zitierte einen Brief von Jason Kwon, Chief Strategy Officer von OpenAI, der ebenfalls letzte Woche an Senator Wiener geschickt wurde.

Update vom 28. August:OpenAI lehnte einen Kommentar ab.

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *