Cyber threats
Barometer

Éclairage du mois

Le 2 août 2025 a marqué l’entrée en vigueur, pour les modèles d’IA à usage général (GPAI), d’un ensemble d’obligations précises en matière de transparence, de sécurité et de gouvernance. Cela fait suite à la mise en place de l’IA Acte, forçant les produits d’IA à se conformer dès leur lancement sur le marché européen. Plusieurs modèles d’IA leaders sur le marché, dont OpenAI, Microsoft, Cohere, Amazon, Google, Anthropic et Mistral AI ont d’ores et déjà signé le Code de bonnes pratiques pour le GPAI.
Ces obligations imposent aux fournisseurs de GPAI une série de mesures : documentation technique, transparence sur les données d’entraînement, évaluations des risques, sécurité intrinsèque des modèles, et la préparation aux incidents avec des conséquences financières significatives en cas de non‑respect (amendes pouvant atteindre 7 % du chiffre d’affaires mondial ou 35 millions d’euros). Sur le plan institutionnel, cette date déclenche également l’opérationnalisation du AI Office et du AI Board. Ce qui met en place des mécanismes clés de coordination et d’application du règlement, ainsi que la désignation par les États membres de leurs autorités nationales compétentes.
L’enjeu est de taille : la réglementation des GPAI transforme les fondations mêmes de l’industrie de l’IA. Les entreprises technologiques doivent désormais repenser leur cycle de développement pour intégrer des processus de conformité dès la conception. La publication proactive des lignes directrices par la Commission européenne indique une volonté d’accompagnement, mais aussi de fermeté dans l’application du cadre.
En conclusion, la mise en marche de ce cadre de régulation (2 août 2025) représente un tournant historique. Il inscrit l’UE comme pionnière d’un contrôle robuste de l’IA tout en lançant un défi majeur aux fournisseurs : allier innovation, transparence et sécurité dans un environnement juridique en pleine structuration.
TOP
VULNÉRABILITÉS CRITIQUES (%)
TOP
SECTEURS D’ACTIVITÉ VISÉS (%)
Définition du mois
Les modèles d’intelligence artificielle à usage général (GPAI) désignent des systèmes d’IA entraînés sur de vastes ensembles de données non spécialisées, conçus pour développer une capacité d’adaptation et de généralisation à une grande diversité de tâches. Contrairement aux modèles d’IA spécialisés (ex. reconnaissance faciale, ou détection de fraude), les GPAI peuvent être utilisés, parfois sans adaptation significative, dans de multiples contextes : génération de langage naturel, compréhension d’images, traduction, résumé de documents, modélisation de comportements, etc.
TOP
FAMILLES DE MALWARE (%)
TOP
CATÉGORIES DE MENACES (%)
À propos du cyber threats barometer
Malwares, vulnérabilités critiques, attaques persistantes avancées, secteurs particulièrement visés, signaux faibles de menaces émergentes… Ce n’est un secret pour personne, la connaissance de son environnement cyber est un facteur clé pour la sécurité d’une entreprise. Le Cyber Threats Barometer vous donne chaque mois mais un aperçu des menaces cyber détectées lors des trente derniers jours par Gatewatcher CTI, notre plateforme de Cyber Threat Intelligence.
Les moteurs automatisés de collecte, d’analyse et de corrélation de Gatewatcher CTI sont alimentés en permanence par plus de quatre milles sources de données provenant de multiples canaux : réseaux sociaux, sites spécialisés, dark et deep web. Ils permettent de rendre accessibles les informations sur les menaces 24 heures en moyenne avant la concurrence et facilitent la prise de décision des équipes opérationnelles en réduisant fortement leurs temps d’analyse et de réaction en cas d’incident.
Demander une démo
