Neuer Strategiebericht gibt wichtige Empfehlungen für Geschlechtergleichstellung und Vielfalt in der KI
MONTREAL, 27. November 2024 /PRNewswire/ -- Mila und CEIMIA, zwei führende globale Akteure im Bereich der verantwortungsvollen Entwicklung von künstlicher Intelligenz (KI), haben heute den bisher umfassendsten Strategiebericht über die Gleichstellung der Geschlechter und die Vielfalt in der KI veröffentlicht. Dieser Bericht und sein begleitender Leitfaden für politische Entscheidungsträger basieren auf umfassenden Konsultationen mit verschiedenen Stimmen und Experten und enthalten klare Empfehlungen zur Förderung einer größeren Inklusion bei der Technologieentwicklung.
Der Bericht, der auf eine Initiative der Arbeitsgruppe Responsible AI (Verantwortungsvolle KI) der Global Partnership on AI (GPAI) hin erstellt wurde, wurde heute im Rahmen einer Veranstaltung in Montreal, Kanada, vorgestellt, an der die kanadische Vorsitzende des Treasury Board, Anita Anand, sowie führende Persönlichkeiten, Entscheidungsträger und Vertreter der KI-Community teilnahmen.
Der Bericht mit dem Titel „Towards Substantive Equality in AI: Transformative AI Policy for Gender Equality and Diversity" zielt darauf ab, Staaten und andere Interessengruppen in die Lage zu versetzen, integrative, gerechte und faire KI-Ökosysteme zu schaffen, die sowohl die wirtschaftliche als auch die soziale Entwicklung vorantreiben. Darin werden wirksame Praktiken untersucht, strategische Einblicke gewährt und umsetzbare Empfehlungen zur Verbesserung der Gleichstellung der Geschlechter und der Vielfalt in der KI und der damit verbundenen Politikgestaltung gegeben.
Die rasante Entwicklung der KI verändert die Industrie und treibt das Wirtschaftswachstum voran. Sie birgt ein großes Potenzial, das Leben und die Lebensgrundlagen weltweit zu verbessern. Es besteht jedoch die Gefahr, dass bestehende Ungleichheiten verschärft werden, indem gesellschaftliche Vorurteile, Diskriminierung und gefährliche Stereotypen, insbesondere solche, die Frauen und andere historisch marginalisierte Gruppen betreffen, widergespiegelt und verstärkt werden. Es gibt bereits dokumentierte Fälle, in denen KI-Systeme und -Prozesse z. B. zu einer nicht einvernehmlichen Verbreitung persönlicher Bilder und zu Online-Belästigungen geführt haben. Der Mangel an Vielfalt im gesamten KI-Ökosystem kann auch gefährliche Stereotypen und Diskriminierung verstärken, da unterschiedliche Perspektiven ausgeschlossen werden. Dies hat zu eingeschränkten Beschäftigungsmöglichkeiten für Randgruppen und zu einer ungerechten Zuweisung von Ressourcen für Menschen mit Behinderungen geführt.
„Dieser Bericht ist von entscheidender Bedeutung, da die Empfehlungen die Ursachen der Ungleichheit angehen, um eine substanzielle Gleichstellung im Bereich KI und darüber hinaus zu erreichen. „Wenn dies durch transformative Veränderungen in der KI-Entwicklung und -Politik erreicht wird, werden die Menschenrechte gefördert", sagt Paola Ricaurte Quijiano, ordentliche Professorin an der Tecnológico de Monterrey, Fakultätsmitglied am Berkman Klein Center for Internet & Society der Harvard University und leitende Mitautorin des Berichts. „Wir müssen einen soliden Regulierungsrahmen schaffen, um schädliche Auswirkungen zu verhindern und eine vorteilhafte Entwicklung von KI-Systemen und -Prozessen für alle zu gewährleisten."
Die wichtigsten Empfehlungen sind in vier Kategorien unterteilt:
- Anreize für inklusives Design und demokratische Innovation schaffen: Integrieren Sie affirmative Maßnahmen und Maßnahmen zur institutionellen Inklusion. Unterstützen Sie außerdem die Entwicklung inklusiver Technologien.
- Förderung einer sinnvollen Beteiligung an der KI-Governance: Fördern und gewährleisten Sie die aktive Beteiligung von Randgruppen an der KI-Governance, um eine bessere KI-Politik für alle zu gewährleisten.
- Stellen Sie Transparenz und Rechenschaftspflicht für die Schadensprävention sicher: Schaffen Sie Schutzmaßnahmen und Mechanismen für die Rechenschaftspflicht aller KI-Akteure, um mögliche Gefahren abzuwenden und Fairness zu gewährleisten.
- Gewährleistung eines effektiven Zugangs zur Justiz: Umsetzung von Maßnahmen, die sicherstellen, dass marginalisierte Gruppen Zugang zu Rechtsmitteln gegen KI-bedingte Diskriminierung und Vorurteile haben.
Der Bericht empfiehlt beispielsweise, Mittel für Initiativen bereitzustellen, die sich an den Grundsätzen des integrativen Technologiedesigns orientieren und gerechte Anwendungen, Praktiken und Prozesse in KI-Ökosystemen fördern. Zu den Empfehlungen gehört auch die Entwicklung von Strategien, die es dem öffentlichen und privaten Sektor ermöglichen, vor dem Einsatz von KI-Systemen Folgenabschätzungen zu den Grundrechten durchzuführen. Weitere Beispiele sind die Gewährleistung der algorithmischen Transparenz, damit Menschen, die von einem KI-System negativ betroffen sind, dessen Ergebnisse auf der Grundlage klarer und verständlicher Informationen anfechten können, und die Erleichterung der Beweislast für Kläger, um den Zugang zu Rechtsmitteln gegen KI-gesteuerte Diskriminierung und Voreingenommenheit zu verbessern.
„Es werden dringend solide Regulierungsrahmen benötigt, um Schadensfälle zu verhindern und auf echte Gleichberechtigung und Vielfalt in KI-Ökosystemen hinzuarbeiten, die sich letztlich auf das menschliche Leben auswirken", fügt Benjamin Prud'homme, Vizepräsident für Politik, Sicherheit und globale Angelegenheiten bei Mila und Mitverfasser des Berichts, hinzu. „Durch integrative KI-Richtlinien können wir die Qualität, Benutzerfreundlichkeit und Effektivität von KI-Systemen verbessern und so zu einer gerechteren, nachhaltigeren und besseren Zukunft für alle beitragen."
Ergänzend zu dem Bericht veröffentlichen CEIMIA und Mila einen Leitfaden, der den politischen Entscheidungsträgern bei der Umsetzung der Empfehlungen helfen soll. Dieser Leitfaden bietet eine Schritt-für-Schritt-Roadmap für den Aufbau inklusiverer KI-Ökosysteme und umsetzbare Schritte zur Erleichterung dieses dringend benötigten Wandels in der Branche.
Auf der Grundlage eines menschenrechtsbasierten Ansatzes für künstliche Intelligenz haben mehr als 200 Teilnehmer aus über 50 Ländern und unterschiedlichen Perspektiven an Konsultationen oder Beratungsprozessen zur Erstellung des Berichts teilgenommen.
Informationen zu CEIMIA
CEIMIA wurde gegründet, um sowohl auf nationaler als auch auf internationaler Ebene eine führende Rolle zu spielen: Als Katalysator für verantwortungsvolle KI-Projekte mit hohem Mehrwert setzt sich CEIMIA dafür ein, die Entwicklung und Einführung von KI zu gewährleisten, die der Menschheit über Grenzen hinweg zugutekommt. Die Organisation wurde außerdem beauftragt, sowohl den Einfluss von Akteuren aus Kanada und Quebec auf verantwortungsvolle KI auf internationaler Ebene zu stärken als auch sicherzustellen, dass die Interessen und die Beteiligung von Schwellen- und Entwicklungsländern bei Projekten und Diskussionen rund um die KI-Governance berücksichtigt werden. CEIMIA unterstützt auch die Aktivitäten der Global Partnership on Artificial Intelligence (GPAI), die darauf abzielt, angewandte KI-Projekte zu entwickeln, die auf die gemeinsamen Prioritäten der OECD-Mitgliedsländer abgestimmt sind. Weitere Informationen finden Sie unter https://ceimia.org/en/.
Informationen zu Mila
Das von Professor Yoshua Bengio von der Universität Montreal gegründete Mila ist ein Forschungsinstitut für künstliche Intelligenz, das mittlerweile mehr als 1.200 auf maschinelles Lernen spezialisierte Forscher vereint. Mila mit Sitz in Montreal hat sich zum Ziel gesetzt, ein globales Zentrum für wissenschaftliche Fortschritte zu sein, das Innovationen und das Wachstum der KI zum Nutzen aller fördert. Der Sitz von Mila befindet sich in Montreal, und die Mission von Mila besteht darin, ein globales Zentrum für wissenschaftliche Fortschritte zu sein, die Innovationen und das Wachstum von KI zum Nutzen aller fördern. Weitere Informationen finden Sie unter mila.quebec.
Kontakt: Eric Aach, [email protected], +1 514-569-3594; oder Gabrielle Landry, [email protected], +1 514-688-5837
WANT YOUR COMPANY'S NEWS FEATURED ON PRNEWSWIRE.COM?
Newsrooms &
Influencers
Digital Media
Outlets
Journalists
Opted In
Share this article