Quels sont les dangers de l’intelligence artificielle pour la société ?

L’intelligence artificielle s’est rapidement intégrée dans notre vie quotidienne, offrant des avantages considérables en termes de productivité et de rentabilité. Malgré ses nombreux avantages, l’IA suscite des controverses, notamment en ce qui concerne les dérives sur son utilisation. Alors qu’elle peut sauver des vies en améliorant les diagnostics médicaux, elle est également utilisée par des régimes autoritaires pour exercer une surveillance de masse sur les citoyens. Plusieurs études se sont d’ailleurs penchées sur le sujet et mettent en garde contre les dangers de l’intelligence artificielle. C’est le cas des chercheurs de l’University College London (UCL), de l’entreprise Goldman Sachs ou encore de Resumebuilders. Dans quelles mesures l’IA peut-elle devenir une menace pour la société et comment se protéger ?

Qu’est-ce que l’intelligence artificielle ?

L’intelligence artificielle (IA) est un système informatique dans lequel les machines ou les logiciels sont programmés pour exécuter des tâches qui nécessitent normalement l’intelligence humaine. Ces tâches comprennent la résolution de problèmes, l’apprentissage, la reconnaissance de formes, la compréhension du langage naturel et même la prise de décisions complexes.

L’IA fonctionne en mémorisant des comportements pour déterminer les réponses appropriées aux problèmes ou situations. À l’aide de bases de données constamment mises à jour et d’algorithmes complexes, l’IA peut stocker et traiter des volumes d’informations bien au-delà des capacités du cerveau humain, un concept connu sous le nom de Big Data.

Le cœur de l’intelligence artificielle repose principalement sur le machine learning, le deep learning et le natural language processing (NPL ou traitement automatique du langage naturel), des concepts qui impliquent la possibilité des machines à apprendre par elles-mêmes et à interagir comme des humains.

          • Le machine learning permet à l’ordinateur d’analyser des données existantes pour faire des prédictions précises. 
          • Le deep learning, une technique automatisée de machine learning, permet à la machine d’identifier des schémas et de classer des informations, lui conférant une certaine capacité de raisonnement. 
          • Le NPL permet aux machines de comprendre et générer un langage naturel, comme si on avait affaire à un humain. Les informations collectées sont stockées dans un réseau neuronal artificiel, lui permettant de résoudre des problèmes complexes.

À titre d’exemple, ChatGPT fait partie des IA dites génératives, sa disposition à générer du texte pertinent lui a permis de se hisser dans le rang des IA les plus plébiscités, avec 1,4 milliard d’utilisateurs quotidiens. De nombreuses entreprises ont su exploiter comment utiliser ChatGPT pour améliorer leur rentabilité. Selon une étude de Resumebuilder en février 2023 sur les 1 000 entreprises américaines interrogées, 25 % ont sauvé entre 50 000 et 70 000 dollars en utilisant ChatGPT, principalement dans les domaines suivants :

Programmation66 %
Rédaction / Copywritting58 %
Service client57 %
Résumé de réunions ou documents52 %
Recherche45 %
Créer des listes 45 %

Les préoccupations en matière de sécurité des données

Le revers de la médaille concerne la collecte des données. Le scandale de Samsung en est un exemple. Un employé a utilisé le chatbot pour vérifier s’il y avait une erreur dans un code source confidentiel. Un autre a sollicité le chatbot pour demander une optimisation d’un code. Un troisième employé a demandé à ChatGPT de convertir un enregistrement en audio d’une réunion confidentielle en notes. Ces informations confidentielles sont désormais accessibles à ChatGPT, qui peut les utiliser. 

Cet incident a conduit Samsung à interdire l’usage de ChatGPT et à développer leur propre IA. Cette démarche n’est pas unique à Samsung ; de nombreuses entreprises ont opté pour le développement interne de leur propre IA afin de garantir la sécurité de leurs données.

Comment un VPN peut-il sécuriser vos données ?

Un VPN offre une protection de la vie privée en ligne en masquant votre adresse IP et en cryptant vos données lorsque vous vous connectez à internet. Le VPN agit comme un bouclier numérique, rendant vos activités en ligne indétectables pour les tiers, que ce soit votre opérateur internet, le gouvernement, les hackers ou même l’intelligence artificielle que vous utilisez. Pour renforcer votre protection, assurez-vous de choisir un VPN no logs qui ne conserve pas vos données, préservant ainsi votre confidentialité et garantissant une expérience internet plus sûre. Profitez de la garantie 45 jours satisfait ou remboursé pour découvrir Cyberghost VPN.

Quels sont les dangers de l’intelligence artificielle ?

Chômage

L’intelligence artificielle arrivera-t-elle à terme à remplacer les hommes dans leur travail ? Plusieurs cas ont déjà fait la une des journaux, comme le site d’information Cnet qui a remplacé 12 journalistes, soit le dixième de son effectif, par ChatGPT. Et ce n’est que le début, puisque selon une étude de Goldman Sachs en mars 2023, le tiers des emplois aux États-Unis et en Europe seront affectés par l’intelligence artificielle. Les IA génératives telles que ChatGPT affectent 25 % des emplois. 

Par extrapolation, cela équivaut à 300 millions d’emplois à plein temps qui seront sujets à l’automatisation. Mais en parallèle, l’étude stipule que d’autres emplois en rapport avec cette technologie vont être créés, comme l’histoire l’a déjà montré à plusieurs reprises. Pour reprendre l’exemple de Cnet, à la suite du licenciement des journalistes, la rédactrice en chef a été nommée Vice-Présidente Senior de la Stratégie IA.

Deepfake

L’intelligence artificielle peut changer le visage ou la voix d’une personne dans une vidéo. Elle peut modifier des vidéos, des images ou des enregistrements audios de manière très convaincante et l’utiliser à des fins de chantage, de diffamation ou de désinformation. Ce phénomène appelé deepfake est considéré comme une menace grave de l’intelligence artificielle selon les recherches de l’UCL. Mark Zuckerberg, Barack Obama, Donald Trump, Emmanuel Macron et plusieurs personnalités y ont été confrontés. Sur la plateforme Twitch par exemple, un scandale sur le deepfake a récemment éclaté avec le streamer Atrioc. Suite à cela, la plateforme a immédiatement pris des mesures pour bannir ce type de contenu en mettant à jour sa ligne de conduite.

Menaces pour la vie privée

Pour fonctionner correctement, l’IA doit analyser un grand nombre de données. ChatGPT, par exemple, a collecté une quantité massive de données sur le web, équivalant à 300 milliards de mots. Cette collecte de données peut entraîner des violations de la vie privée. D’ailleurs, OpenAI fait aujourd’hui face à des poursuites puisque l’IA a eu accès à des œuvres protégées par le copyright pour construire sa base de données. 

La dernière date de septembre. Cette fois-ci, c’est George RR Martin, l’auteur du roman A Song of Ice and Fire, adapté dans la série Game of Throne, qui s’attaque au chatbot. D’autres auteurs comme John Grisham, Jonathan Franzen, Jodi Picoult ou encore George Saunders se sont joint à lui pour dénoncer le vol massif systémique de données par OpenAI. Ils reprennent le même argument que Sarah Silverman, Margaret Atwood et Philip Pullman qui demandent à être dédommagés pour l’utilisation de leurs œuvres, sans leur consentement. 

CTA : Obtenez Cyberghost VPN

Surveillance de masse et manipulation de l’opinion publique

L’intelligence artificielle peut être utilisée pour manipuler l’opinion publique à grande échelle en analysant les données personnelles et les comportements en ligne des individus. L’affaire Cambridge Analytica en 2018 a mis au grand jour cette menace lorsque Christopher Wylie, un ancien employé de l’entreprise, a révélé que Cambridge Analytica collectait des données sur les utilisateurs de Facebook sans leur consentement pour leur montrer des publicités ciblées, influençant leurs choix. L’enquête a permis de conclure que 50 millions d’utilisateurs de Facebook ont en été victime. L’entreprise a joué un rôle important dans la campagne présidentielle de Donald Trump et pour la campagne du Brexit.

Détérioration des relations sociales

L’intégration généralisée de l’IA dans la société soulève des questions complexes sur nos interactions avec les machines et les robots, entraînant des dilemmes moraux et sociaux. Les humanoïdes deviennent de plus en plus similaires à l’homme, que ce soit sur le plan physique ou même linguistique, adoptant ses manières et expressions. Remplaceront-ils l’homme à l’avenir ? En Chine, par exemple, on a les petits amis virtuels lancés par la société Xiaoice, les influenceurs virtuels, mais aussi récemment, la première PDG humanoïde, Tang Yu, de l’entreprise NetDragons, dirigeant 6 000 employés.

Perte de contrôle

Si les systèmes d’IA deviennent trop autonomes, il pourrait devenir difficile pour les humains de maintenir un contrôle adéquat, entraînant des conséquences imprévisibles. L’éventualité d’une intelligence artificielle super intelligente, dépassant les capacités intellectuelles humaines, pose des risques existentiels. La machine prendra-t-elle le dessus sur l’homme ?

Dans une étude de Katja Grace, John Salvatier, Allan Dafoe, Baobao Zhang et Owain Evans, publiée en 2017, des experts en IA se sont déjà penchés sur le sujet. Le résultat est sans appel, selon les chercheurs, il y a une probabilité de 50 % que l’intelligence artificielle surpasse les compétences humaines dans toutes les tâches d’ici à 45 ans. De plus, ils estiment que l’IA automatisera tous les emplois humains d’ici à 120 ans. Il est intéressant de noter que les répondants asiatiques prévoient ces avancements bien plus tôt que leurs homologues nord-américains.

Comment se protéger des dangers de l’intelligence artificielle ?

La mise en place de réglementation pour éviter les dérives

Le cas de l’Union européenne

En avril 2021, la Commission européenne a proposé un cadre réglementaire de l’intelligence artificielle en Europe. Le projet de loi a été voté au parlement en mai dernier. L’objectif est de veiller à ce que les intelligences artificielles soient sûres, transparentes, traçables, non discriminatoires et respectueuses de l’environnement. Cette proposition suggère d’analyser et de classifier les systèmes d’IA en fonction du niveau de risque qu’ils présentent pour les utilisateurs. Plus le niveau de risque est élevé, plus les réglementations seront strictes. 

L’IA Act prévoit notamment de déclarer les données copyrightées lors de l’entraînement du modèle d’IA. Ainsi, les détenteurs du droit pourront potentiellement saisir la justice si leurs contenus ont été utilisés sans leur consentement. Les modèles d’IA devront être enregistrés dans une base de données européenne.

Outre ces mesures, le RGPD régule la protection des données sur le territoire, chaque pays, ayant une autorité visant à faire respecter les règlements. Pour surveiller l’intelligence artificielle en France, par exemple, nous avons la CNIL avec son plan d’action IA. L’objectif étant de trouver un équilibre pour encadrer cette technologie sans freiner l’innovation.

L’encadrement de l’intelligence artificielle aux États-Unis

Même si les États-Unis restent le leader en matière d’intelligence artificielle, avec 248.9 milliards de dollars investis de 2013 à 2022 (Statista), aucun projet de réglementation n’est réellement en cours malgré les appels de certains responsables politiques. Au lieu de cela, la Maison-Blanche a obtenu des engagements volontaires de la part des leaders de la Tech, notamment OpenAI, Microsoft, Google, Meta et Amazon, sans qu’il y ait de contraintes juridiques. Notons que ces engagements ne prévoient aucune sanction en cas de non-respect.

Comme proposé par l’UE, les mesures concernent principalement le marquage des contenus générés par l’intelligence artificielle. Par ailleurs, les entreprises signataires se sont engagées à permettre des audits indépendants de leurs modèles d’IA générative et à partager ces informations avec le gouvernement américain. Elles ont promis de respecter la vie privée de leurs utilisateurs et de veiller à ce que leurs systèmes d’IA ne comportent aucun biais discriminatoire.

Les États-Unis travaillent conjointement avec l’Union européenne pour mettre en place un code de conduite commun sur l’intelligence artificielle, en attendant la mise en place de lois plus contraignantes. Ces pays redoutent une réglementation chinoise plus autoritaire.

Le cas de la Chine

L’intelligence artificielle fait partie des secteurs prioritaires pour le gouvernement chinois, l’objectif étant d’être le numéro un mondial dans ce domaine d’ici à 2030. La Chine, qui est en deuxième position avec 95.1 milliards de dollars investis dans l’IA (Statista) compte déployer des moyens colossaux pour rattraper son retard face aux États-Unis. Le pays a présenté son projet de loi sur l’IA générative en avril dernier.

En matière de reconnaissance faciale, par exemple, la Chine reste à la pointe de la technologie, avec une caméra de surveillance pour deux habitants. En 2019, une fuite de base de données a révélé l’ampleur de l’utilisation des outils de surveillance chinois. Cette fuite a exposé plus de 6,8 millions d’enregistrements en une seule journée, provenant de caméras installées dans divers endroits tels que les hôtels, les parcs, les sites touristiques et les mosquées. Ces enregistrements comprennent des détails sur les personnes, âgées de 9 jours seulement.

En août dernier, la Chine a mis en place un projet de loi pour mieux réguler la reconnaissance faciale dans le pays, et notamment à interdire son utilisation pour analyser la race ou l’appartenance ethnique. Cette loi vise à « réglementer l’application de la technologie de reconnaissance faciale, de protéger les droits et les intérêts des informations personnelles, d’autres droits personnels et de propriété, de maintenir l’ordre social et la sécurité publique ».

L’importance de l’éducation

Apprendre à utiliser l’intelligence artificielle de manière responsable permet d’éviter les risques de dérives. L’éducation et la sensibilisation jouent un rôle crucial pour mieux comprendre les implications éthiques et sociales de l’IA. L’IA en elle-même n’est pas dangereuse ; ce qui importe, c’est la manière dont elle est utilisée. En comprenant ses limites et en encourageant des pratiques éthiques, il est possible de minimiser les risques et maximiser les avantages de cette technologie émergente. Seule une utilisation réfléchie de l’intelligence artificielle peut ouvrir la voie à un avenir dans lequel l’homme et la technologie coexistent de manière harmonieuse et bénéfique.

La protection de vos données personnelles

À votre niveau, vous pouvez prendre des mesures simples pour sécuriser vos données sur le web, notamment : 

    • 🌟 Utilisez des mots de passe forts : Créez des mots de passe complexes et uniques pour chaque compte. Utilisez une combinaison de lettres majuscules et minuscules, de chiffres et de caractères spéciaux. Lorsque c’est possible, activez l’authentification à deux facteurs pour empêcher les accès non autorisés même si quelqu’un connaît votre mot de passe.
    • 🌟 Soyez vigilant avec les e-mails et les liens : Ne cliquez pas sur des liens provenant de sources inconnues ou suspectes. Soyez particulièrement prudent avec les e-mails demandant des informations personnelles.
    • 🌟 Utilisez un VPN et un antivirus : Le VPN est le seul moyen de crypter vos données pour qu’elles soient indéchiffrables, même si elles tombaient entre les mains d’un hacker. Tandis que l’antivirus protège votre appareil des logiciels malveillants.
    • 🌟 Utilisez un navigateur sécurisé : Choisissez des navigateurs réputés et configurez-les pour qu’ils bloquent les popups, les cookies tiers et activent la navigation privée.
    • 🌟 Soyez sélectif sur les informations que vous partagez en ligne : Réfléchissez avant de partager des informations personnelles sur les réseaux sociaux, ChatGPT ou autres plateformes en ligne. Plus vous partagez, plus vous vous exposez à des risques.

Conclusion

L’intelligence artificielle présente des opportunités indéniables, mais elle pose également des risques sérieux et complexes pour la société. Les débats actuels autour des dangers de l’intelligence artificielle ne sont pas simplement des conjectures futuristes, ce sont des préoccupations légitimes auxquelles les gouvernements doivent faire face. La régulation de ce secteur constitue un premier pas pour éviter les dérives. De votre côté, vous pouvez prendre des mesures de sécurité simples, comme l’utilisation d’un VPN fiable pour protéger vos données personnelles. 

FAQ

Comment peut-on protéger ses données sur internet ?

Vous pouvez protéger vos données sur internet en utilisant un VPN. Ce dernier, en plus de masquer votre adresse IP, crypte vos données de sorte qu’elles soient indéchiffrables pour les tiers. Cyberghost utilise le chiffrement AES 256 Bits offrant une protection optimale. Profitez de la garantie de remboursement de 45 jours pour tester Cyberghost VPN.

Est-ce que ChatGPT est compatible avec un VPN ?

Oui, ChatGPT est compatible avec un VPN. En cryptant vos données, le VPN sécurise vos données lorsque vous vous connectez à ChatGPT. Testez Cyberghost VPN qui est optimisé pour ChatGPT.

L’intelligence artificielle est-elle une menace pour la société ?

Plusieurs études se sont penchés sur les risques de dérives de l’IA si elle n’est pas contrôlée. Parmi les dangers de l’intelligence artificielle, on peut noter : le chômage, la surveillance de masse, la perte de contrôle et la détérioration des relations sociales ou encore les menaces pour la vie privée. Pour vous prémunir contre la surveillance, vous pouvez utiliser Cyberghost VPN.

Leave a comment

Write a comment

Your email address will not be published. Required fields are marked*