Bitget App
Trade smarter
Acheter des cryptosMarchésTradingFuturesEarnWeb3CommunautéPlus
Trading
Spot
Achat et vente de cryptos
Marge
Amplifiez et maximisez l'efficacité de vos fonds
Onchain
Tradez Onchain sans aller on-chain
Convert & Block Trade
Trades volumineux – Convertissez des cryptos en un clic et sans frais
Explorer
Launchhub
Prenez l'avantage dès le début et commencez à gagner
Copier
Copiez des traders experts en un clic
Bots
Bots de trading IA simples, rapides et fiables
Trading
Futures USDT-M
Futures réglés en USDT
Futures USDC-M
Futures réglés en USDC
Futures Coin-M
Futures réglés en cryptomonnaies
Explorer
Guide des Futures
Le parcours de trading de Futures, du débutant à l'expert
Événements Futures
Profitez de généreuses récompenses
Bitget Earn
Une variété de produits pour faire fructifier vos actifs
Simple Earn
Déposez et retirez à tout moment, rendements flexibles sans risque
On-chain Earn
Réalisez des profits quotidiens sans risquer votre capital
Structured Earn
Une innovation financière solide pour gérer les fluctuations du marché
VIP et Gestion de patrimoine
Des services premium pour une gestion de patrimoine intelligente
Prêt Crypto
Emprunts flexibles avec un haut niveau de sécurité des fonds
Les législateurs britanniques avertissent : les engagements en matière de sécurité de l'IA deviennent de la poudre aux yeux

Les législateurs britanniques avertissent : les engagements en matière de sécurité de l'IA deviennent de la poudre aux yeux

ainvest2025/08/29 17:52
Afficher le texte d'origine
Par:Coin World

- 60 parlementaires britanniques accusent Google DeepMind d’avoir violé ses engagements en matière de sécurité de l’IA en retardant la publication de rapports détaillés de sécurité pour Gemini 2.5 Pro. - L’entreprise a publié une fiche technique simplifiée trois semaines après le lancement, sans transparence sur les tests réalisés par des tiers ni sur l’implication d’agences gouvernementales. - Google affirme avoir respecté ses engagements en publiant un rapport technique plusieurs mois plus tard, mais les critiques estiment que cela sape la confiance dans les protocoles de sécurité. - Des problèmes similaires chez Meta et OpenAI soulignent des inquiétudes à l’échelle de l’industrie concernant l’opacité.

Un groupe de 60 parlementaires britanniques a signé une lettre ouverte accusant Google DeepMind de ne pas respecter ses engagements en matière de sécurité de l’IA, en particulier concernant la publication retardée d’informations détaillées sur la sécurité de son modèle Gemini 2.5 Pro [1]. La lettre, publiée par le groupe d’activistes politiques PauseAI, critique l’entreprise pour ne pas avoir fourni une fiche technique complète du modèle lors de sa sortie, document clé décrivant les méthodes de test et de développement du modèle [1]. Selon eux, ce manquement constitue une violation des engagements de sécurité Frontier AI pris lors d’un sommet international en février 2024, où les signataires – y compris Google – s’étaient engagés à rendre publics les capacités des modèles, les évaluations des risques et la participation de testeurs tiers [1].

Google a lancé Gemini 2.5 Pro en mars 2025 mais n’a pas publié de fiche technique complète à ce moment-là, bien qu’elle ait affirmé que le modèle surpassait ses concurrents sur des critères clés [1]. À la place, une fiche technique simplifiée de six pages a été publiée trois semaines plus tard, que certains experts en gouvernance de l’IA ont jugée insuffisante et préoccupante [1]. La lettre souligne que le document manquait de détails substantiels sur les évaluations externes et ne confirmait pas si des agences gouvernementales, telles que le U.K. AI Security Institute, avaient participé aux tests [1]. Ces omissions soulèvent des inquiétudes quant à la transparence des pratiques de sécurité de l’entreprise.

En réponse à ces critiques, un porte-parole de Google DeepMind a précédemment déclaré à Fortune que toute suggestion selon laquelle l’entreprise ne respecterait pas ses engagements était « inexacte » [1]. L’entreprise a également indiqué en mai qu’un rapport technique plus détaillé serait publié lorsque la version finale de la famille de modèles Gemini 2.5 Pro serait disponible. Un rapport plus complet a finalement été publié fin juin, plusieurs mois après la mise à disposition de la version complète [1]. Le porte-parole a réaffirmé que l’entreprise respecte ses engagements publics, y compris les Seoul Frontier AI Safety Commitments, et que Gemini 2.5 Pro avait subi des contrôles de sécurité rigoureux, y compris des évaluations par des testeurs tiers [1].

La lettre note également que l’absence de fiche technique pour Gemini 2.5 Pro semblait contredire d’autres engagements pris par Google, tels que les White House Commitments de 2023 et un Code de conduite volontaire sur l’intelligence artificielle signé en octobre 2023 [1]. La situation n’est pas propre à Google. Meta a fait face à des critiques similaires pour sa fiche technique minimale et limitée du modèle Llama 4, tandis qu’OpenAI a choisi de ne pas publier de rapport de sécurité pour son modèle GPT-4.1, invoquant son statut non-frontier [1]. Ces développements suggèrent une tendance plus large dans l’industrie où les divulgations sur la sécurité deviennent moins transparentes ou sont tout simplement omises.

La lettre appelle Google à réaffirmer ses engagements en matière de sécurité de l’IA en définissant clairement le déploiement comme le moment où un modèle devient accessible au public, en s’engageant à publier les rapports d’évaluation de la sécurité selon un calendrier défini pour toutes les futures sorties de modèles, et en assurant une transparence totale pour chaque sortie en nommant les agences gouvernementales et les tiers indépendants impliqués dans les tests, ainsi que les calendriers exacts des tests [1]. Lord Browne of Ladyton, signataire de la lettre et membre de la Chambre des Lords, a averti que si les principales entreprises d’IA considèrent les engagements de sécurité comme optionnels, cela pourrait conduire à une dangereuse course au déploiement de systèmes d’IA de plus en plus puissants sans garanties adéquates [1].

Source :

Les législateurs britanniques avertissent : les engagements en matière de sécurité de l'IA deviennent de la poudre aux yeux image 0
0

Avertissement : le contenu de cet article reflète uniquement le point de vue de l'auteur et ne représente en aucun cas la plateforme. Cet article n'est pas destiné à servir de référence pour prendre des décisions d'investissement.

PoolX : Bloquez vos actifs pour gagner de nouveaux tokens
Jusqu'à 12% d'APR. Gagnez plus d'airdrops en bloquant davantage.
Bloquez maintenant !

Vous pourriez également aimer

Baisse des taux de la Fed en septembre : quelles sont les trois crypto-monnaies qui pourraient exploser ?

Avec l’injection de nouvelles liquidités, trois cryptomonnaies pourraient devenir les plus grands gagnants ce mois-ci.

Cryptoticker2025/09/06 18:52
Baisse des taux de la Fed en septembre : quelles sont les trois crypto-monnaies qui pourraient exploser ?

Évaluation des projets d'airdrop Hyperliquid : lesquels valent la peine d'être essayés ?

Une grande quantité d'informations pratiques sur les meilleurs airdrops de la seconde moitié de 2025 arrive !

深潮2025/09/06 17:29
Évaluation des projets d'airdrop Hyperliquid : lesquels valent la peine d'être essayés ?

Rapport sur les applications AI du premier semestre 2025 de Sensor Tower : les jeunes hommes restent majoritaires parmi les utilisateurs, les applications verticales font face à une pression de « disruption »

L'Asie est le plus grand marché en termes de téléchargements d'applications d'IA, tandis que le marché américain domine en ce qui concerne les revenus des achats intégrés dans les applications d'IA.

深潮2025/09/06 17:28
Rapport sur les applications AI du premier semestre 2025 de Sensor Tower : les jeunes hommes restent majoritaires parmi les utilisateurs, les applications verticales font face à une pression de « disruption »