Aller au contenu

L’IA pourrait échapper à notre contrôle

De Wikidébats, l'encyclopédie des débats et des arguments « pour » et « contre »
Argument contreCet argument est un argument « contre » dans le débat Faut-il accélérer le développement de l'intelligence artificielle ?.

RésuméRésumé 

L'accélération du développement de l'IA sans garantir son alignement avec les valeurs humaines pourrait mener à une situation où une IA avancée, capable de s'auto-améliorer, prendrait des décisions contraires aux intérêts humains. Une telle IA pourrait devenir incontrôlable, représentant un risque existentiel pour l'humanité. L'absence de garanties sur la sécurité et l’éthique des systèmes d’IA amplifie ces craintes.

CitationsCitations 

« [...] une intelligence artificielle non alignée sur nos valeurs pourrait devenir un risque existentiel pour l’humanité. »

Nick Bostrom, « Superintelligence: Paths, Dangers, Strategies », Oxford University Press, 2014.

RéférencesRéférences 

JustificationsJustifications 

ObjectionsObjections 

Débat parentDébat parent