vestager4_Joan CrosNurPhoto via Getty Images_airecognition Joan Cros/NurPhoto via Getty Images

Comment penser la politique de l’IA

BRUXELLES – Dans la ville de Poznan, située 325 kilomètres à l’est de Varsovie, une équipe composée de chercheurs en technologie, d’ingénieurs et de professionnels de l’enfance travaille actuellement sur une petite révolution. Son projet commun, baptisé « Insension », utilise la reconnaissance faciale assistée par l’intelligence artificielle pour aider les enfants atteints de handicaps intellectuels profonds et de handicaps multiples à interagir avec les autres ainsi qu’avec leur environnement, afin qu’ils puissent se connecter davantage au monde qui les entoure. Cette initiative témoigne de la puissance de cette technologie aux avancées rapides.

À plusieurs milliers de kilomètres de là, dans les rues de Pékin, la reconnaissance faciale appuyée par l’IA est utilisée par les autorités publiques pour suivre les déplacements quotidiens des citoyens, et maintenir ainsi l’ensemble de la population sous une surveillance étroite. La technologie est la même, mais le résultat fondamentalement différent. Ces deux exemples résument le défi global de l’IA : la technologie sous-jacente n’est ni bonne, ni mauvaise en soi ; tout dépend de la manière dont elle est utilisée.

C’est cette dualité fondamentale de l’IA qui nous a guidés dans l’élaboration de l’Artificial Intelligence Act européen, une réglementation axée sur les utilisations de l’IA, plutôt que sur la technologie elle-même. Notre approche se résume à un principe simple : plus l’IA est risquée, plus les obligations seront élevées pour ceux qui la développent.

https://prosyn.org/qsl0doufr