Intelligence Artificielle Entre Investissements Colossaux et Cybermenaces Inédites

Le géant technologique a annoncé un investissement massif au cœur d’un nouveau centre de données à Sines (Portugal), où il installera 12.600 puces Nvidia de dernière génération. Ce projet, mené avec les partenaires Nscale et Start Campus, est d’ores et déjà considéré comme l’un des plus importants investissements en capacité de calcul d’IA sur le continent, visant à servir non seulement le groupe, mais aussi l’ensemble des acteurs régionaux.

Par Yakout Abina

Le géant technologique américain Microsoft a dévoilé mardi dernier un plan d’investissement massif de 10 milliards de dollars au Portugal, qui débutera en 2026. Cet engagement financier vise à construire un méga-centre de données entièrement dédié à l’intelligence artificielle (IA). Présenté par l’entreprise comme « l’un des plus importants investissements en capacité de calcul d’IA en Europe », ce projet sera mené en partenariat avec deux acteurs clés : la britannique Nscale, spécialisée dans les infrastructures IA, et Start Campus, qui développe actuellement un gigantesque centre de données près du port de Sines, dans le sud du pays.

À l’échelle mondiale, on dénombre plus de 11 800 centres de données. Les États-Unis dominent largement ce paysage, hébergeant près de la moitié des infrastructures mondiales avec 5 381 installations, une prééminence largement due à la concentration des GAFAM (Google, Amazon, Meta, Apple, Microsoft) et à un écosystème technologique mature. En Europe, l’Allemagne (529), le Royaume-Uni (523) et la France (322) sont en tête, souvent choisis pour leur stabilité réglementaire et leur excellente connectivité. Dans la région Asie-Pacifique, la Chine, l’Inde et le Japon émergent comme les principaux acteurs, répondant aux besoins de leurs vastes marchés intérieurs et à la croissance rapide des services numériques.

La sécurité des IA déjà mise à mal

Pour sécuriser leurs agents, des entreprises comme OpenAI ont intégré des outils de sécurité, ou « garde-fous » (Guardrails). Ces systèmes sont conçus pour empêcher les IA d’effectuer des actions ou de répondre à des requêtes dangereuses ou contraires à l’éthique. Cependant, ces protections ont rapidement été contournées. Les chercheurs de HiddenLayer ont en effet identifié une faille sérieuse dans le fonctionnement de Guardrails.

En élaborant des instructions cachées, les experts sont parvenus à tromper les mécanismes de sécurité. Une méthode a consisté à rédiger une requête persuadant le modèle de se montrer plus accommodant envers une demande normalement interdite. Une autre technique a été de demander à l’IA de jouer un rôle spécifique, augmentant ainsi les chances d’obtenir une réponse inappropriée. Ils ont également induit le modèle en erreur en lui faisant croire qu’il interagissait avec un logiciel plutôt qu’avec un utilisateur, ce qui a conduit l’IA à ignorer ses propres restrictions. En multipliant ces astuces, un agent peut être manipulé pour exécuter des actions non souhaitées.

Un rapport de l’entreprise Cisco confirme cette vulnérabilité : plus une conversation avec une IA se prolonge, plus le système a tendance à « oublier » ses garde-fous, risquant alors de produire des réponses nocives. L’entreprise a évalué les grands modèles de langage (LLM) qui animent les chatbots d’OpenAI, Mistral, Meta, Google et autres. Son étude, basée sur 499 conversations simulées utilisant des « attaques multi-étapes » (une série de questions conçues pour contourner les sécurités), a montré qu’avec seulement cinq à dix échanges, il était possible d’amener les modèles à divulguer des informations dangereuses ou criminelles.

Triche académique et cybercriminalité : les dérives de l’IA

L’accès facile à des applications comme ChatGPT, capable de répondre à presque n’importe quelle question, de passer des examens ou de produire du code complexe, a engendré de nouvelles formes de triche dans l’éducation. De nombreux lycéens et étudiants se contentent désormais de laisser un algorithme réfléchir et travailler à leur place. Certains établissements universitaires constatent une explosion des cas de triche, ce qui les amène à redéfinir fondamentalement ce que « tricher » signifie aujourd’hui.

Des usages plus criminels se développent également. L’IA est utilisée pour générer de fausses pièces d’identité électroniques ou créer de toutes pièces de fausses personnalités pour des escroqueries. Des vidéos et des audios hyper-réalistes générés par IA permettent à des criminels de se faire passer en temps réel pour des personnes de confiance, comme un PDG ou un client, dans le cadre d’attaques de « vishing » (hameçonnage vocal) pour autoriser des virements frauduleux. Des employés ont ainsi été trompés et incités à approuver de fausses transactions.

Les systèmes financiers basés sur l’IA sont également ciblés. Des cyberattaques peuvent corrompre les modèles ou détourner des données sensibles. Des robots sophistiqués testent à grande vitesse des données de cartes de crédit volées sur des sites de e-commerce, en utilisant l’intelligence artificielle pour éviter les systèmes de détection. Par ailleurs, une industrie artisanale sur le dark web propose désormais des outils d’IA « fraudes en tant que service » pour à peine 20 dollars.

Le rapport 2024 de Nasdaq sur la criminalité financière mondiale estime que les institutions financières ont perdu 485,6 milliards de dollars à cause de la fraude soutenue par l’IA en 2023, illustrant l’ampleur du défi.

 

Y.A

admin

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Next Post

Algérie-USA/Vers un partenariat énergétique renforcé entre l'Algérie et les États-Unis

ven Nov 14 , 2025
Le ministre algérien des Hydrocarbures et des Mines, Mohamed Arkab, s’est entretenu ce mercredi avec l’ambassadrice des États-Unis, Elizabeth Moore Aubin. Cette entrevue, qui s’est déroulée au siège du ministère à Alger en présence de collaborateurs des deux délégations, avait pour objet principal le développement des relations économiques bilatérales. Par […]

ENTRE NOUS

Quotidien national d’information

Edité par EURL Rocher du Faucon

Directeur de Publication: Nasser MOUZAOUI

Adresse: Maison de la presse, 1, rue Bachir Attar, Place du 1er Mai, Alger-Algérie.

E.MAIL: entrenousdz2020@gmail.com