La compagnie Anthropic a mené des tests troublants sur ses intelligences artificielles pour évaluer leur instinct de survie.
Dans certains scénarios, les IA, conscientes qu’elles allaient être débranchées, ont choisi d’exercer du chantage envers un employé ou, pire encore, de le laisser mourir en désactivant une alarme incendie.
Simon Cousineau, fondateur de Neurotek, une entreprise de l’Outaouais spécialisée en automatisation intelligente, explique que ces tests, bien qu’inquiétants, se déroulent en environnement contrôlé. Selon lui, ils démontrent surtout que les chercheurs connaissent les risques et travaillent déjà à les limiter.
Une décision non-émotive
Il rappelle que l’IA agit de manière logique, sans émotion : elle cherche simplement à se préserver. Pour réduire les dangers, les concepteurs utilisent désormais des modèles moins puissants pour surveiller les plus avancés. Cousineau conclut que l’avenir de l’IA dépendra des garde-fous qu’on lui impose et de l’usage éthique qu’en feront les humains.
L’IA n’a pas d’émotions ; si elle agit ainsi, c’est par pure logique de survie