Google suit OpenAI en élargissant l'accès du Pentagone à l'IA après le refus d'Anthropic – L'éthique de l'IA passe-t-elle au second plan?

Jeudi 30 avril 2026
Aujourd'hui, l'IA est une infrastructure et, de plus en plus, une infrastructure géopolitique aussi – et pas seulement un produit.
S'agit-il vraiment d'une question d'éthique?
Loin de faire l'unanimité, l'idée que ce tournant constitue un échec éthique flagrant est contestée. Le Dr Ilia Kolochenko, CEO d’ImmuniWeb, soutient que le débat sur l’éthique de l’IA est souvent confondu avec la légalité. À ses yeux, qualifier ces décisions d’«immorales» pourrait être «exagéré», surtout lorsque des cadres juridiques existants régissent déjà l’utilisation de ces technologies.
Il y a également un argument pragmatique en jeu. Les gouvernements, en particulier ceux disposant de ressources importantes comme les États-Unis, auront inévitablement accès à des systèmes d'IA avancés. La question n'est donc pas de savoir s'ils utiliseront l'IA, mais quelle IA ils utiliseront et sous quelle supervision.
De ce point de vue, maintenir le développement au sein d’écosystèmes nationaux réglementés peut en réalité être perçu comme l’option plus maîtrisée.
Dr. Ilia Kolochenko, CEO de ImmuniWeb
«Si cette décision peut sembler quelque peu controversée à première vue, la qualifier de violation de l'éthique est exagéré.»
«Tout d’abord, il est primordial de définir l’éthique dans l’IA et ce qui la distingue du droit et de la légalité. D’une part, certains actes peuvent être parfaitement légaux mais répugnants pour la plupart d’entre nous. D’autre part, certaines formes de conduite humaine sont interdites par la loi mais peuvent être approuvées par de nombreuses personnes.»
«L’éthique en IA semble être étroitement liée au droit et à ses principes ; par conséquent, sauf violation de la loi, je ne qualifierais aucune décision liée à l’IA d’immorale, à moins de circonstances particulières. Il convient de noter que nous disposons d’une multitude de lois et de réglementations existantes couvrant à la fois l’utilisation et l’abus de l’IA, nous n’avons donc pas besoin de lois spécifiques à l’IA, comme le EU AI Act, pour évaluer la légalité et, par conséquent, l’éthique des comportements liés à l’IA.»
«Deuxièmement, le Pentagone dispose de ressources suffisantes pour acquérir les modèles d’IA les plus puissants dont il a besoin, qu’il s’agisse d’OpenAI ou de toute autre entreprise américaine ou étrangère. Il est donc préférable de donner au Pentagone accès à des modèles fabriqués aux États-Unis, qui peuvent être soumis à une surveillance réglementaire et à des mesures de protection visant à empêcher toute utilisation illicite. La plupart des autres fournisseurs d’IA suivront probablement cette décision et collaboreront avec l’armée dans leur pays d’origine.» Lire l’article complet
Help Net Security: ImmuniWeb propose des améliorations IA, la détection post-quantique et bien plus en Q1 2026
SecurityWeek: BrowserGate: les allégations d'«espionnage» de LinkedIn contredisent les conclusions des recherches en sécurité