Google laisse s'engager à ne pas utiliser l'IA pour les armes, la surveillance

Le géant de la technologie dit dans la politique d'éthique mis à jour qu'il utilisera l'IA conformément au «droit international et aux droits de l'homme».
Google a laissé tomber un engagement à ne pas utiliser l'intelligence artificielle pour les armes ou la surveillance dans sa politique d'éthique mise à jour sur la technologie puissante.
Dans sa version précédente des «principes d'IA», le géant de l'Internet basé en Californie a inclus un engagement à ne pas poursuivre les technologies de l'IA qui «causent ou sont susceptibles de causer des dommages globaux», y compris les armes et la surveillance qui violent les «normes internationales acceptées».
La politique révisée de Google annoncée mardi indique que la société poursuit l'IA «de manière responsable» et conforme aux «principes largement acceptés du droit international et des droits de l'homme», mais n'inclut pas la langue précédente sur les armes ou la surveillance.
“Nous pensons que les démocraties devraient diriger dans le développement de l'IA, guidé par des valeurs fondamentales comme la liberté, l'égalité et le respect des droits de l'homme”, a déclaré le chef de Google Deepmind Demis Hassabis et le vice-président directeur des laboratoires de recherche James Manyika dans un article de blog annonçant la politique mise à jour.
«Et nous pensons que les entreprises, les gouvernements et les organisations partageant ces valeurs devraient travailler ensemble pour créer une IA qui protège les personnes, favorise la croissance mondiale et soutient la sécurité nationale.»
Google n'a pas immédiatement répondu à la demande de commentaires d'Al Jazeera.
Google a publié pour la première fois sa liste des principes de l'IA en 2018 après que les employés ont protesté contre la participation du cabinet au projet Maven du Département de la défense des États-Unis, qui a examiné l'utilisation de l'IA pour aider les militaires à identifier les objectifs de frappes de drones.
Google a choisi de ne pas renouveler son contrat avec le Pentagone après le contrecoup, qui a vu un certain nombre de membres du personnel démissionner et des milliers d'autres signent une pétition dénonçant la participation de l'entreprise dans le projet.
Le géant de la technologie a annoncé plus tard cette année-là qu'il ne rivaliserait plus pour un contrat de cloud computing de 10 milliards de dollars avec le Pentagone car il “ne pouvait pas être assuré” qu'il s'alignerait avec ses principes d'IA.
La politique d'éthique mise à jour de Google intervient après que le directeur général de la société mère Alphabet Inc, Sundar Pichai, a rejoint les chefs de technologie, notamment le fondateur d'Amazon Jeff Bezos et le chef de méta Mark Zuckerberg, dans la participation à l'inauguration du 20 janvier du président américain Donald Trump.
Quelques heures après avoir pris ses fonctions, Trump a annulé un décret de l'ancien président américain Joe Biden qui a établi certains garde-corps pour la technologie en développement rapide.
L'ordre de Biden a obligé les entreprises à développer une IA pour partager les résultats des tests de sécurité avec le gouvernement avant de publier de nouvelles technologies au public.