Sie möchten also, dass Ihr Unternehmen künstliche Intelligenz nutzt. Berücksichtigen Sie vor der überstürzten Einführung von KI die potenziellen Risiken, einschließlich rechtlicher Fragen im Zusammenhang mit Datenschutz, geistigem Eigentum und Haftung. Mit einem strategischen Risikomanagement-Framework können Unternehmen große Compliance-Risiken mindern und das Vertrauen der Kunden wahren, während sie gleichzeitig die jüngsten Fortschritte in der KI nutzen.

Überprüfen Sie Ihre Trainingsdaten

Beurteilen Sie zunächst, ob die zum Training Ihres KI-Modells verwendeten Daten den geltenden Gesetzen wie dem Indian Act 2023 entsprechen. Gesetzentwurf zum Schutz digitaler personenbezogener Daten und der Europäischen Union Datenschutz-Grundverordnung, die sich mit Dateneigentum, Einwilligung und Compliance befassen. Eine rechtzeitige rechtliche Prüfung, die feststellt, ob die gesammelten Daten rechtmäßig für maschinelle Lernzwecke verwendet werden dürfen, kann spätere regulatorische und rechtliche Probleme vermeiden.

Diese rechtliche Bewertung umfasst eine gründliche Analyse der bestehenden Nutzungsbedingungen, Datenschutzrichtlinien und anderer kundenbezogener Vertragsbedingungen, um festzustellen, welche Berechtigungen gegebenenfalls von einem Kunden oder Benutzer eingeholt wurden. Im nächsten Schritt muss ermittelt werden, ob diese Berechtigungen zum Trainieren eines KI-Modells ausreichen. Andernfalls ist wahrscheinlich eine zusätzliche Benachrichtigung oder Zustimmung des Kunden erforderlich.

Unterschiedliche Arten von Daten werfen unterschiedliche Fragen zur Einwilligung und Haftung auf. Überlegen Sie beispielsweise, ob es sich bei Ihren Daten um persönlich identifizierbare Informationen, synthetische Inhalte (normalerweise von einem anderen KI-System generiert) oder das geistige Eigentum einer anderen Person handelt. Datenminimierung (nur das verwenden, was Sie benötigen) ist ein guter Grundsatz, den Sie in dieser Phase anwenden sollten.

Achten Sie genau darauf, wie Sie die Daten erhalten haben. OpenAI wurde verklagt personenbezogene Daten zu sammeln, um seine Algorithmen zu trainieren. Und wie unten erläutert, kann das Scraping von Daten Fragen zu Urheberrechtsverletzungen aufwerfen. Darüber hinaus können die US-Zivilklagegesetze Anwendung finden, da dies beim Scraping der Fall sein könnte gegen die Nutzungsbedingungen einer Website verstoßen. Amerikanische sicherheitsorientierte Gesetze, wie z Gesetz über Computerbetrug und -missbrauch könnte zweifellos außerhalb des Landesgebiets angewendet werden, um ausländische Unternehmen strafrechtlich zu verfolgen, die Daten aus sicheren Systemen gestohlen haben.

Überwachen Sie Fragen des geistigen Eigentums

Die New York Times kürzlich Fortsetzung von OpenAI für die Nutzung der Zeitungsinhalte zu Schulungszwecken und stützte seine Argumente auf Vorwürfe der Urheberrechtsverletzung und Markenverwässerung. Die Klage enthält eine wichtige Lektion für alle an der KI-Entwicklung beteiligten Unternehmen: Seien Sie vorsichtig, wenn Sie urheberrechtlich geschützte Inhalte für Trainingsmodelle verwenden, insbesondere wenn es möglich ist, vom Eigentümer eine Lizenz für diese Inhalte zu erhalten. Apfel und andere Unternehmen haben Lizenzoptionen in Betracht gezogenDies wird sich wahrscheinlich als die beste Möglichkeit erweisen, potenzielle Ansprüche wegen Urheberrechtsverletzung abzumildern.

Um Urheberrechtsbedenken auszuräumen, Microsoft verlobt mit Stehen Sie hinter den Ergebnissen Ihrer KI-Assistentenund versprach, Kunden gegen mögliche Ansprüche wegen Urheberrechtsverletzung zu verteidigen. Solche Schutzmaßnahmen für geistiges Eigentum könnten zum Industriestandard werden.

Unternehmen müssen auch das Risiko eines versehentlichen Auslaufens berücksichtigen vertrauliche Informationen und Geschäftsgeheimnisse durch ein KI-Produkt. Wenn Sie Mitarbeitern erlauben, Technologien intern zu nutzen, z ChatGPT (für den Text) und Github-Copilot (für die Codegenerierung) sollten Unternehmen beachten, dass diese generativen KI-Tools häufig verwendet werden Nehmen Sie Benutzeraufforderungen und -ausgaben entgegen als Trainingsdaten zur weiteren Verbesserung ihrer Modelle. Glücklicherweise bieten generative KI-Unternehmen im Allgemeinen sicherere Dienste und die Möglichkeit, sich vom Modelltraining abzumelden.

Hüten Sie sich vor Halluzinationen

Auch Urheberrechtsverletzungen und Datenschutzprobleme entstehen, wenn generative KI-Modelle Trainingsdaten als Ausgabe ausspucken.

Dies ist oft die Folge von „überpassende“ Modelle, im Wesentlichen ein Trainingsfehler, bei dem sich das Modell bestimmte Trainingsdaten merkt, anstatt allgemeine Regeln für die Reaktion auf Eingabeaufforderungen zu lernen. Das Auswendiglernen kann dazu führen, dass das KI-Modell die Trainingsdaten als Ausgabe wiedergibt, was aus urheberrechtlicher oder datenschutzrechtlicher Sicht eine Katastrophe sein könnte.

Das Auswendiglernen kann auch zu Ungenauigkeiten in den Ergebnissen führen, die manchmal als „Halluzinationen“ bezeichnet werden. In einem interessanten Fall, a New York Times der Journalist war Experimentieren Sie mit dem Bing AI-Chatbot Sydney, als er dem Journalisten seine Liebe erklärte. Der virale Vorfall löste eine Diskussion über die Notwendigkeit aus, den Einsatz dieser Tools zu überwachen, insbesondere bei jüngeren Benutzern, die der KI eher menschliche Eigenschaften zuschreiben.

Halluzinationen haben auch in beruflichen Bereichen zu Problemen geführt. Beispielsweise wurden zwei Anwälte mit Sanktionen belegt, nachdem sie einen von ChatGPT verfassten Rechtsbrief eingereicht hatten, in dem sie sich auf nicht existierende Rechtsprechung beriefen.

Solche Halluzinationen zeigen, warum Unternehmen KI-Produkte testen und validieren müssen, um nicht nur rechtliche Risiken, sondern auch Reputationsschäden zu vermeiden. Viele Unternehmen haben dafür technische Ressourcen bereitgestellt Inhaltsfilter entwickeln die die Genauigkeit verbessern und die Wahrscheinlichkeit beleidigender, beleidigender, unangemessener oder diffamierender Ergebnisse verringern.

Behalten Sie den Überblick über die Daten

Wenn Sie Zugriff auf persönlich identifizierbare Benutzerdaten haben, ist es wichtig, dass Sie diese Daten sicher behandeln. Sie müssen außerdem sicherstellen, dass Sie die Daten löschen und ihre Verwendung für Zwecke des maschinellen Lernens als Reaktion auf Benutzeranfragen oder Anweisungen von Aufsichtsbehörden oder Gerichten verhindern können. Die Wahrung der Datenherkunft und die Gewährleistung einer robusten Infrastruktur sind für alle KI-Entwicklungsteams von größter Bedeutung.

„Mit einem strategischen Risikomanagement-Framework können Unternehmen wichtige Compliance-Risiken mindern und das Vertrauen der Kunden wahren, während sie gleichzeitig die jüngsten Fortschritte in der KI nutzen. »

Mit diesen technischen Anforderungen sind rechtliche Risiken verbunden. In den Vereinigten Staaten haben Regulierungsbehörden, darunter die Federal Trade Commission damit gerechnet zu haben algorithmisches Degorgieren, eine Strafmaßnahme. Wenn ein Unternehmen bei der Erhebung von Trainingsdaten gegen geltende Gesetze verstoßen hat, muss es nicht nur die Daten, sondern auch die auf den kontaminierten Daten trainierten Modelle löschen. Es ist ratsam, genaue Aufzeichnungen über die Datensätze zu führen, die zum Trainieren verschiedener Modelle verwendet werden.

Hüten Sie sich vor Voreingenommenheit bei KI-Algorithmen

Eine der größten Herausforderungen der KI ist das Potenzial für schädliche Vorurteile, die in den Algorithmen verankert sein können. Wenn Voreingenommenheit vor der Produkteinführung nicht gemindert wird, können Apps die bestehende Diskriminierung aufrechterhalten oder sogar verschlimmern.

Es hat sich beispielsweise gezeigt, dass die von den amerikanischen Strafverfolgungsbehörden eingesetzten prädiktiven Polizeialgorithmen dominante Vorurteile verstärken. Schwarz und Latino Gemeinden werden am Ende unverhältnismäßig stark ins Visier genommen.

Bei Verwendung für Kreditgenehmigungen Oder StellenvermittlungVoreingenommene Algorithmen können zu diskriminierenden Ergebnissen führen.

Experten und politische Entscheidungsträger halten es für wichtig, dass Unternehmen sich für Fairness in der KI einsetzen. Algorithmische Voreingenommenheit kann konkrete und problematische Auswirkungen auf bürgerliche Freiheiten und Menschenrechte haben.

Seien Sie transparent

Viele Unternehmen haben Ethikprüfungsausschüsse eingerichtet, um sicherzustellen, dass ihre Geschäftspraktiken den Grundsätzen der Transparenz und Rechenschaftspflicht entsprechen. Zu den Best Practices gehört es, transparent zu sein, wie Daten verwendet werden, und Kunden gegenüber korrekt über die Leistungsfähigkeit von KI-Produkten zu informieren.

Die US-Regulierungsbehörden missbilligen Unternehmen, die dies tun überversprechende KI-Fähigkeiten in ihren Marketingmaterialien. Auch die Aufsichtsbehörden Unternehmen wurden benachrichtigt gegen stillschweigende und einseitige Änderungen der Datenlizenzbedingungen in ihren Verträgen, um den Umfang ihres Zugriffs auf Kundendaten zu erweitern.

Verfolgen Sie einen umfassenden risikobasierten Ansatz

Viele KI-Governance-Experten empfehlen einen risikobasierten Ansatz verfolgen zur Entwicklung der KI. Die Strategie besteht darin, die KI-Projekte Ihres Unternehmens abzubilden, sie auf einer Risikoskala zu bewerten und Maßnahmen zur Risikominderung umzusetzen. Viele Unternehmen integrieren Risikobewertungen in bestehende Prozesse, um die Auswirkungen der vorgeschlagenen Funktionen auf die Privatsphäre zu messen.

Bei der Festlegung von KI-Richtlinien ist es wichtig sicherzustellen, dass die von Ihnen berücksichtigten Regeln und Richtlinien unter Berücksichtigung der neuesten internationalen Gesetze angemessen sind, um Risiken umfassend zu mindern.

Ein regionalisierter Ansatz zur KI-Governance könnte sich als kostspielig und fehleranfällig erweisen. Die Europäische Union hat kürzlich beschlossen Gesetz über künstliche Intelligenz enthält eine detaillierte Reihe von Anforderungen für Unternehmen, die KI entwickeln und nutzen, und ähnliche Gesetze gelten dürfte bald in Asien auftauchen.

Setzen Sie die rechtlichen und ethischen Überprüfungen fort

Rechtliche und ethische Überprüfungen sind während des gesamten Lebenszyklus eines KI-Produkts wichtig: Training eines Modells, Tests und Entwicklung, Einführung und sogar danach. Unternehmen müssen proaktiv darüber nachdenken, wie sie KI implementieren können, um Ineffizienzen zu beseitigen und gleichzeitig den Datenschutz von Geschäfts- und Kundendaten zu wahren.

Für viele Menschen ist KI Neuland. Unternehmen sollten in Schulungsprogramme investieren, um ihren Mitarbeitern zu vermitteln, wie sie neue Tools optimal nutzen und sie zum Vorantreiben ihres Geschäfts nutzen können.

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *