Microsoft entre dans la bataille contre les deepfakes. La société a mis en place un nouvel outil permettant d’analyser des vidéos et des photos pour voir si elles ont été manipulées.
Cet outil, qui porte le nom de Microsoft Video Authenticator, peut être utilisé lors des élections et par les rédacteurs en chef. Les Deepfakes sont des vidéos, des photos et des clips audio qui ont été modifiés à l’aide de l’intelligence artificielle (IA). De sorte que cela semble faussement accuser quelqu’un d’avoir dit ou fait quelque chose. De cette manière, de fausses nouvelles peuvent être distribuées, par exemple. Le problème est qu’il est souvent difficile de voir si quelque chose a été manipulé ou non.
Une aide aux élections présidentielles
Le nouveau programme Video Authenticator de Microsoft, tout cela devrait changer. L’outil peut analyser une photo ou une vidéo et déterminer si elle a été manipulée par l’IA ou non. L’outil donne une note pour indiquer la probabilité qu’il y ait effectivement une manipulation, écrit Microsoft dans un article de blog. Dans le cas des vidéos, ce score peut changer par image, car toutes les images ne sont pas manipulées.
Tom Burt, vice-président de Microsoft, a déclaré à Bloomberg que l’outil sera initialement mis à la disposition des organisations politiques et médiatiques impliquées dans « le processus démocratique ». Burt espère que de cette façon, l’outil pourra déjà avoir un impact à l’approche de l’élection présidentielle américaine en novembre.
Toutefois, le développement de Video Authenticator est une entreprise de longue haleine. On ne sait donc pas encore quand et si l’outil sera accessible à tous.