Nouvelles

Google supprime l'engagement de ne pas utiliser l'IA pour les armes, la surveillance

Sundar Pichai, PDG d'Alphabet Inc., lors du Forum des affaires, du gouvernement et de la société en 2024 de Stanford à Stanford, en Californie, le 3 avril 2024.

Justin Sullivan | Images getty

Google a supprimé un engagement pour s'abstenir d'utiliser l'IA pour des applications potentiellement nocives, telles que les armes et la surveillance, selon les “principes d'IA” mis à jour de la société.

Une version antérieure Des principes de l'IA de l'entreprise ont déclaré que la société ne poursuivrait pas “des armes ou d'autres technologies dont le principal objectif ou la mise en œuvre est de provoquer ou de faciliter directement les blessures aux personnes” et “des technologies qui recueillent ou utilisent des informations pour la surveillance violant les normes acceptées par le international”.

Ces objectifs ne sont plus affichés sur ses principes d'IA site web.

“Il y a une compétition mondiale qui se déroule pour le leadership de l'IA dans un paysage géopolitique de plus en plus complexe”, lit un mardi article de blog Co-écrit par Demis Hassabis, PDG de Google Deepmind. “Nous pensons que les démocraties devraient conduire dans le développement de l'IA, guidé par des valeurs fondamentales comme la liberté, l'égalité et le respect des droits de l'homme.”

Les principes mis à jour de l'entreprise reflètent les ambitions croissantes de Google d'offrir sa technologie et ses services d'IA à davantage d'utilisateurs et de clients, qui comprenait les gouvernements. Le changement est également conforme à la rhétorique croissante des dirigeants de la Silicon Valley au sujet d'une course de victoire à tous entre les États-Unis et la Chine, avec le CTO Shyam Sankar de Palantir en disant lundi que “ce sera un effort total de la nation qui s'étend bien au-delà du DoD pour que nous de gagner en tant que nation.

La version précédente des principes de l'IA de l'entreprise a déclaré que Google “prendrait en compte un large éventail de facteurs sociaux et économiques”. Les nouveaux principes d'IA State Google “procéderont à ce que nous pensons que les avantages généraux globaux dépassent considérablement les risques et les inconvénients prévisibles”.

Dans son article de blog de mardi, Google a déclaré qu'il “resterait conforme aux principes largement acceptés du droit international et des droits de l'homme – évaluant toujours un travail spécifique en évaluant soigneusement si les avantages l'emportent considérablement sur les risques potentiels”.

Les nouveaux principes d'IA étaient Rapporté pour la première fois par le Washington Post mardi, avant Google gains du quatrième trimestre. Les résultats de l'entreprise ont manqué les attentes des revenus de Wall Street et ont fait baisser les actions jusqu'à 9% dans les échanges après les heures d'ouverture.

Des centaines de manifestants, y compris les travailleurs de Google, sont rassemblés devant les bureaux de Google à San Francisco et ont fermé la circulation dans One Market Street Block jeudi soir, exigeant la fin de son travail avec le gouvernement israélien, et pour protester contre les attaques israéliennes contre Gaza, à San Francisco , Californie, États-Unis le 14 décembre 2023.

Anadolu | Anadolu | Images getty

Google a établi ses principes d'IA en 2018 après refuser de renouveler Un contrat gouvernemental appelé Project Maven, qui a aidé le gouvernement à analyser et à interpréter des vidéos de drones en utilisant l'intelligence artificielle. Avant de mettre fin à l'accord, plusieurs milliers d'employés ont signé une pétition contre le contrat et des dizaines ont démissionné en opposition à l'implication de Google. L'entreprise aussi abandonné Parmi les enchères pour un contrat de cloud Pentagone de 10 milliards de dollars en partie parce que la société “ne pouvait pas être sûre” qu'elle s'alignerait avec les principes de l'IA de l'entreprise, a-t-il déclaré à l'époque.

Vantant sa technologie d'IA aux clients, l'équipe de direction de Pichai a poursuivi les contrats du gouvernement fédéral, qui a causé tension accrue Dans certaines zones de la main-d'œuvre franc de Google.

“Nous pensons que les entreprises, les gouvernements et les organisations partageant ces valeurs devraient travailler ensemble pour créer une IA qui protège les gens, favorise la croissance mondiale et soutient la sécurité nationale”, a déclaré le blog de Google Mardi.

Google l'année dernière terminé plus de 50 employés après une série de manifestations Contre le projet Nimbus, un contrat conjoint de 1,2 milliard de dollars avec Amazon qui fournit au gouvernement israélien et aux militaires des services de cloud computing et d'IA. Les dirigeants ont déclaré à plusieurs reprises que le contrat n'avait violé aucune des “AI principles.”

Cependant, documents et rapports a montré l'accord de la société autorisé pour donner à Israël Outils d'IA Cela comprenait la catégorisation d'image, le suivi des objets, ainsi que dispositions pour les fabricants d'armes publiques. Le New York Times en décembre signalé Que quatre mois avant de signer à Nimbus, les responsables de Google se sont exprimés en craignant que la signature de l'accord nuise à sa réputation et que “Google Cloud Services pourrait être utilisé ou lié à la facilitation des violations des droits de l'homme”.

Pendant ce temps, l'entreprise avait réprimé des discussions internes autour des conflits géopolitiques comme la guerre à Gaza.

Google a annoncé des lignes directrices mises à jour pour son forum interne Memegen en septembre qui restreint davantage les discussions politiques sur le contenu géopolitique, les relations internationales, les conflits militaires, les actions économiques et les litiges territoriaux, selon des documents internes considérés par CNBC à l'époque.

Google n'a pas immédiatement répondu à une demande de commentaires.

MONTRE: La bataille de l'IA en haut de Google en 2025

Source

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button