Auf der Hacker-Konferenz Defcon 2023 in Las Vegas schlossen sich führende KI-Technologieunternehmen mit Gruppen für algorithmische Integrität und Transparenz zusammen, um Tausende von Teilnehmern auf generativen KI-Plattformen zu testen und Schwachstellen in diesen kritischen Systemen zu finden. Diese „Red-Teaming“-Übung, die auch von der US-Regierung unterstützt wurde, war ein Schritt, diese zunehmend einflussreichen, aber undurchsichtigen Systeme einer genauen Prüfung zugänglich zu machen. Heute geht die gemeinnützige Humane Intelligence, die sich auf die ethische Bewertung von KI und Algorithmen spezialisiert hat, dieses Modell noch weiter. Am Mittwoch kündigte die Gruppe einen Aufruf zur Teilnahme beim US-amerikanischen National Institute of Standards and Technology an und lud jeden US-Bürger ein, an der Qualifikationsphase eines nationalen Red-Teaming-Projekts zur Bewertung von Produktivitätssoftware für KI-basierte Büroautomatisierung teilzunehmen.

Die Qualifikationen finden online statt und stehen Entwicklern und der breiten Öffentlichkeit im Rahmen der KI-Herausforderungen des NIST offen, die als „Assessing Risks and Impacts of AI“ oder ARIA bekannt sind. Teilnehmer, die die Qualifikationsrunde bestehen, nehmen Ende Oktober an einer persönlichen Red-Teaming-Veranstaltung auf der Conference on Machine Learning Applied to Information Security (CAMLIS) in Virginia teil. Ziel ist es, die Möglichkeiten zur Durchführung strenger Tests der Sicherheit, Belastbarkeit und Ethik generativer KI-Technologien zu erweitern.

„Die durchschnittliche Person, die eines dieser Modelle verwendet, kann nicht wirklich feststellen, ob das Modell für ihre Bedürfnisse geeignet ist oder nicht“, sagt Theo Skeadas, CEO der AI Governance and Security Group-Linie Tech Policy Consulting. das mit Humane Intelligence arbeitet. „Deshalb wollen wir die Fähigkeit zur Durchführung von Evaluierungen demokratisieren und sicherstellen, dass jeder, der diese Modelle nutzt, selbst beurteilen kann, ob das Modell seinen Bedürfnissen entspricht oder nicht. »

Bei der abschließenden CAMLIS-Veranstaltung werden die Teilnehmer in ein rotes Team aufgeteilt, das versucht, KI-Systeme anzugreifen, und ein blaues Team, das an der Verteidigung arbeitet. Die Teilnehmer verwenden das KI-Risikomanagement-Framework des NIST, bekannt als AI 600-1, als Maßstab, um zu messen, ob das rote Team in der Lage ist, Ergebnisse zu liefern, die gegen das von den Systemen erwartete Verhalten verstoßen.

„NIST ARIA verlässt sich auf strukturiertes Benutzerfeedback, um reale Anwendungen von KI-Modellen zu verstehen“, sagt Rumman Chowdhury, Gründer von Humane Intelligence, der auch Auftragnehmer im Office of Emerging Technologies des NIST und Mitglied der KI-Sicherheit des US-Heimatschutzministeriums ist und Sicherheitsrat. „Das ARIA-Team besteht hauptsächlich aus Experten für soziotechnische Tests und Bewertungen [is] „Wir nutzen diesen Kontext als eine Möglichkeit, das Feld in Richtung einer strengen wissenschaftlichen Bewertung der generativen KI zu bewegen.“ »

Laut Chowdhury und Skeadas ist die Partnerschaft mit NIST nur eine von mehreren AI-Red-Team-Kooperationen, die Humane Intelligence in den kommenden Wochen mit US-Regierungsbehörden, internationalen Regierungen und NGOs bekannt geben wird. Das Ziel dieser Bemühungen besteht darin, es für Unternehmen und Organisationen viel üblicher zu machen, sogenannte Black-Box-Algorithmen zu entwickeln, um Transparenz und Rechenschaftspflicht durch Mechanismen wie „Bias Bounty Challenges“ zu gewährleisten, bei denen Einzelpersonen für die Entdeckung von Problemen und Ungleichheiten belohnt werden können KI-Modelle.

„Die Community sollte nicht auf Programmierer beschränkt sein“, sagt Skeadas. „Politische Entscheidungsträger, Journalisten, die Zivilgesellschaft und Laien müssen alle in den Test- und Bewertungsprozess dieser Systeme einbezogen werden. Und wir müssen sicherstellen, dass weniger vertretene Gruppen, wie Menschen, die Minderheitensprachen sprechen oder aus Kulturen und Perspektiven außerhalb der Mehrheit stammen, an diesem Prozess teilnehmen können. »

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *