
L’essor de l’intelligence artificielle : implications et développements
L’intelligence artificielle (IA) est devenue un sujet de discussion majeur, attirant l’attention du monde entier suite à l’immense popularité des chatbots à grands modèles de langage (LLM) comme ChatGPT aux États-Unis et DeepSeek en Chine, qui ont eu un impact notable sur le marché boursier. Ce nouvel intérêt soulève des questions pertinentes concernant l’influence de l’IA sur divers secteurs, en particulier chez les personnes qui ne connaissent pas le terme « intelligence artificielle ».
Préoccupations entourant les technologies d’IA
Malgré les avantages qu’offre l’IA, elle comporte des risques qui ne peuvent être ignorés. La désinformation, les atteintes à la vie privée, la dépendance excessive à la technologie et les applications militaires potentielles suscitent de graves inquiétudes. La responsabilité d’atténuer ces dangers incombe entièrement aux pionniers de l’IA et aux leaders du secteur.
L’engagement de Google pour une IA responsable
En réponse à ces défis, Google a toujours donné la priorité à la sécurité dans le domaine du développement de l’IA. Au cours des six dernières années, l’entreprise a publié un « Rapport d’avancement sur l’IA responsable » annuel. Plus récemment, elle a publié son rapport d’avancement 2024, un document qui décrit ses efforts continus pour renforcer la sécurité de l’IA.
L’une des principales nouveautés du dernier rapport est la modification du cadre de sécurité Frontier de Google. Ce cadre, lancé par Google DeepMind, vise à identifier et à traiter de manière proactive les risques potentiels liés aux systèmes d’IA avancés. Parmi les principales améliorations, on peut citer :
- Recommandations pour une sécurité renforcée : proposer des stratégies pour améliorer les mesures de sécurité contre les violations de données.
- Procédure d’atténuation du déploiement : établissement de lignes directrices pour empêcher l’utilisation abusive des puissantes capacités de l’IA.
- Risque d’alignement trompeur : lutter contre la menace posée par les systèmes autonomes qui pourraient manipuler la surveillance humaine.
Leadership démocratique dans le développement de l’IA
En plus de mettre à jour ses protocoles de sécurité, Google a réaffirmé sa position selon laquelle les démocraties devraient être les fers de lance du développement des technologies d’IA, en mettant l’accent sur des valeurs telles que la liberté, l’égalité et le respect des droits de l’homme. L’entreprise a également annoncé des révisions de ses principes d’IA originaux, publiés pour la première fois en 2018.
Modifications des principes d’IA de Google
Une visite sur la page des principes de l’IA révèle une absence notable concernant l’utilisation de l’IA dans l’armement. Une version archivée de la page du 22 février 2024 comprenait un engagement à s’abstenir de créer ou de déployer des technologies d’IA conçues pour nuire :
Armes ou autres technologies dont le but principal ou la mise en œuvre est de causer ou de faciliter directement des blessures à des personnes.
Toutefois, cet engagement a été omis dans les principes révisés, qui se concentrent désormais sur trois principes fondamentaux :
- Innovation audacieuse : Notre objectif est de développer des technologies d’IA qui autonomisent les individus et stimulent les avancées dans divers domaines, améliorant ainsi le bien-être économique et social.
- Développement et déploiement responsables : Reconnaissant la nature transformatrice de l’IA, nous nous engageons à assurer son développement et sa mise en œuvre en toute sécurité grâce à des tests rigoureux et à des considérations éthiques.
- Progrès collaboratif, ensemble : nous valorisons les partenariats et nous engageons à créer des technologies qui permettent aux autres d’utiliser l’IA pour obtenir des résultats positifs.
Préoccupations des employés et considérations éthiques
Il est intéressant de noter que Google n’a pas encore renoncé à son engagement antérieur contre l’utilisation de l’IA à des fins militaires, une décision qui a suscité une forte opposition de la part de ses employés. En 2018, près de 4 000 employés ont signé une pétition demandant la résiliation du contrat de l’entreprise avec le ministère américain de la Défense, connu sous le nom de Projet Maven, qui utilisait l’IA pour analyser les images de drones.
Plus récemment, des employés de Google DeepMind ont exprimé des inquiétudes similaires, exhortant l’entreprise technologique à rompre ses liens avec les entités militaires. Cet appel à l’action faisait référence aux principes d’IA de l’entreprise, affirmant que de telles relations entrent en conflit avec son engagement antérieur de s’abstenir de développer des technologies militaires.
Pour un aperçu plus détaillé, visitez Depositphotos.com.
Laisser un commentaire