Panel in Davos gehost door algemeen directeur Ginni Rometty van IBM verkent nauwkeurige regulering van AI- & opkomende technologie
Evenement lanceert formeel het IBM Policy Lab, een nieuw forum om gedurfde, uitvoerbare beleidsaanbevelingen voor een digitale samenleving te bevorderen en vertrouwen in innovatie te versterken
Voordien publiceerde het IBM Policy Lab toonaangevende prioriteiten voor de regulering van kunstmatige intelligentie op basis van verantwoordingsplicht, transparantie, redelijkheid en veiligheid
DAVOS, Zwitserland, 23 januari 2020 /PRNewswire/ — Vandaag heeft IBM (NYSE: IBM) op het Wereld Economisch Forum in Davos het IBM Policy Lab gelanceerd; het betreft een nieuw wereldwijd forum dat gericht is op het bevorderen van gedurfde, uitvoerbare beleidsaanbevelingen voor de zwaarste uitdagingen van technologie. Dit vond plaats tijdens een evenement gehost door de voorzitter, uitvoerend voorzitter en algemeen directeur van IBM, Ginni Rometty, waarin het snijpunt van regelgeving en vertrouwen in opkomende technologie werd uitgediept.
Het IBM Policy Lab, geleid door codirecteuren Ryan Hagemann en Jean-Marc Leclerc, twee deskundigen met veel ervaring op het gebied van technologie en openbaar beleid, biedt een mondiale visie en uitvoerbare aanbevelingen om beleidsmakers te helpen de voordelen van innovatie te benutten en tegelijkertijd het maatschappelijk vertrouwen op te bouwen in een wereld die aan het veranderen is door data- en opkomende technologie. De aanpak is gebaseerd op de overtuiging dat technologie de maatschappij kan blijven verstoren en verbeteren en tegelijkertijd de persoonlijke levenssfeer kan beschermen, en dat verantwoordelijke bedrijven de verplichting hebben om beleidsmakers te helpen bij de behandeling van deze complexe kwesties.
Christopher Padilla, vicevoorzitter overheids- en regelgevende aangelegenheden, IBM, zei:
"Het IBM Policy Lab zal helpen een nieuw tijdperk in te luiden en op te bouwen waarin vertrouwen in technologie centraal staat. IBM verlegt elke dag de grenzen van technologie, maar tegelijkertijd erkennen wij onze verantwoordelijkheid met betrekking tot vertrouwen en transparantie en kijken wij hoe technologie de samenleving beïnvloedt. Ik zie een overvloed aan technologie, maar een tekort aan uitvoerbare beleidsideeën om ervoor te zorgen dat we mensen beschermen terwijl we innovatie tot bloei laten komen. Het IBM Policy Lab zal een nieuwe norm stellen voor hoe bedrijven kunnen samenwerken met overheden en andere belanghebbenden ten dienste van de belangen van de samenleving."
Voorafgaand aan het lanceringsevenement bracht het IBM Policy Lab een reeks belangrijke prioriteiten uit voor de nauwkeurige regulering van kunstmatige intelligentie, evenals een nieuwe Morning Consult-studie over de houdingen ten opzichte van de regulering van opkomende technologie. Het perspectief, Precision Regulation for Artificial Intelligence, zet een regelgevend kader op voor organisaties die betrokken zijn bij het ontwikkelen of gebruiken van AI op basis van verantwoordingsplicht, transparantie, redelijkheid en veiligheid. Dit bouwt voort op de oproepen van IBM voor een op een "nauwkeurige regulering" gebaseerde benadering inzake gezichtsherkenning en illegale online content, d.w.z. wetten die bedrijven meer verantwoordelijk houden, zonder te breed te worden op een manier die innovatie of de bredere digitale economie belemmert. Deze benaderingen worden versterkt door een Morning Consult-enquête, gesponsord door IBM, waaruit bleek dat 62% van de Amerikanen en 7 op de 10 Europeanen die antwoordden, de voorkeur geven aan een nauwkeurige reguleringsaanpak voor technologie, waarbij minder dan 10% van de respondenten in beide regio's een brede regulering van technologie steunt.
Het beleidsdocument van IBM over AI-regelgeving omlijnt vijf beleidsvereisten voor bedrijven, of het nu leveranciers zijn of eigenaren van AI-systemen, die kunnen worden versterkt met overheidsmaatregelen. Zij omvatten:
- De aanstelling van een leidinggevende op het gebied van AI-ethiek. Om toezicht te houden op de naleving van deze verwachtingen, moeten aanbieders en eigenaren een persoon aanwijzen die verantwoordelijk is voor betrouwbare AI, zoals een leidinggevende op het gebied van AI-ethiek.
- Verschillende regels voor verschillende risico's. Alle entiteiten die een AI-systeem aanbieden of bezitten, moeten een initiële beoordeling op hoog niveau uitvoeren van de potentiële schade die de technologie kan veroorzaken. En de regelgeving moet verschillende gebruiksgevallen op een verschillende manier behandelen in functie van het mogelijke inherente risico.
- Verberg je AI niet. Transparantie wekt vertrouwen; en de beste manier om transparantie te bevorderen is door het doel van een AI-systeem duidelijk te maken voor consumenten en bedrijven. Niemand mag worden misleid bij interactie met AI.
- Leg je AI uit. Ieder AI-systeem op de markt dat vaststellingen of aanbevelingen doet met potentieel significante gevolgen voor individuen, moet in staat zijn om uit te leggen en te contextualiseren hoe en waarom het tot een bepaalde conclusie is gekomen.
- Test je AI op vooroordelen. Alle organisaties in de AI-ontwikkelingscyclus hebben een zekere mate van gedeelde verantwoordelijkheid om erover te waken dat de AI-systemen die ze ontwerpen en implementeren redelijk en veilig zijn. Dit vereist testen op redelijkheid, vooroordelen, robuustheid en veiligheid, en het nemen van corrigerende maatregelen indien nodig, zowel vóór verkoop of implementatie als nadat deze is geoperationaliseerd. Voor gebruiksgevallen met een hoger risico moet dit worden versterkt door middel van "co-regulering", waarbij bedrijven testen uitvoeren en de overheid steekproefcontroles uitvoert op naleving.
Deze aanbevelingen worden gedaan nu de nieuwe Europese Commissie heeft aangegeven dat zij wetgeving zal opstellen betreffende AI binnen de eerste 100 dagen van 2020 en het Witte Huis nieuwe richtlijnen voor de regulering van AI heeft uitgebracht.
Uit de nieuwe Morning Consult-studie in opdracht van het IBM Policy Lab bleek voorts dat 85% van de ondervraagde Europeanen en 81% van de ondervraagde Amerikanen de bescherming van consumentengegevens in een of andere vorm steunen, en dat 70% van de Europese respondenten en 60% van de Amerikaanse respondenten AI-regelgeving steunen. Bovendien is 74% van de Amerikaanse respondenten en 85% van de EU-respondenten het erover eens dat kunstmatige intelligentie-systemen transparant en uitlegbaar moeten zijn, en zijn sterke pluraliteiten in beide landen van mening dat openbaarmaking vereist moet zijn voor bedrijven die AI-systemen creëren of verdelen. Bijna 3 op de 4 Europeanen en twee derde van de Amerikanen die aan de enquête deelnamen, spreken hun steun uit voor regelgeving zoals het uitvoeren van risicobeoordelingen, het uitvoeren van pre-implementatietesten op vooroordelen en redelijkheid, en het informeren van consumenten en bedrijven dat een AI-systeem wordt gebruikt bij de besluitvorming.
Naast zijn nieuwe AI-perspectief, heeft het IBM Policy Lab beleidsaanbevelingen uitgebracht over het reguleren van gezichtsherkenning, technologische soevereiniteit en klimaatverandering, evenals principes om een digitale Europese toekomst de weg te wijzen. Meer informatie over het IBM Policy Lab is te vinden op ibm.com/policy.
Het door IBM gehoste evenement in Davos, Walking the Tech Tightrope: How to Balance Trust with Innovation, kon ook rekenen op de aanwezigheid van de voorzitter en algemeen directeur van Siemens AG, Joe Kaeser, en de plaatsvervangende stafchef voor beleidscoördinatie van het Witte Huis, Chris Liddell. Julia Chatterley, internationale nieuwspresentatrice en correspondente van CNN, modereerde de discussie.
Het transcript is te vinden op https://www.ibm.com/blogs/policy/wp-content/uploads/2020/01/IBM-PolicyLab_Davos_Transcript.pdf.
Logo - https://mma.prnewswire.com/media/95470/ibm_logo.jpg
Related Links
WANT YOUR COMPANY'S NEWS FEATURED ON PRNEWSWIRE.COM?
Newsrooms &
Influencers
Digital Media
Outlets
Journalists
Opted In
Share this article