Fermer l'annonce

En fin de semaine dernière, nous vous avons informé d'une nouveauté plutôt intéressante, à savoir un nouveau système de détection d'images représentant des abus sur des enfants. Concrètement, Apple analysera toutes les photos stockées sur iCloud et, en cas de détection, signalera ces cas aux autorités compétentes. Bien que le système fonctionne "en toute sécurité" au sein de l'appareil, le géant a tout de même été critiqué pour violation de la vie privée, ce qui a également été annoncé par le célèbre lanceur d'alerte Edward Snowden.

Le problème est qu’Apple s’est jusqu’à présent appuyé sur la vie privée de ses utilisateurs, qu’elle souhaite protéger en toutes circonstances. Mais cette nouvelle bouleverse directement leur attitude originelle. Les pomiculteurs sont littéralement mis devant le fait accompli et doivent choisir entre deux options. Soit ils disposeront d'un système spécial qui analysera toutes les images stockées sur iCloud, soit ils cesseront d'utiliser les photos iCloud. Le tout fonctionnera alors tout simplement. L'iPhone téléchargera une base de données de hachages, puis les comparera avec les photos. Parallèlement, il interviendra également dans l'actualité, où il est censé protéger les enfants et informer en temps utile les parents des comportements à risque. Le souci vient alors du fait que quelqu'un pourrait abuser de la base de données elle-même, ou pire encore, que le système puisse analyser non seulement les photos, mais aussi les messages et toutes les activités, par exemple.

CSAM Apple
Comment tout cela fonctionne

Bien entendu, Apple devait répondre aux critiques le plus rapidement possible. Pour cette raison, par exemple, il a publié un document FAQ et a désormais confirmé que le système numériserait uniquement les photos, mais pas les vidéos. Ils le décrivent également comme une version plus respectueuse de la vie privée que celle utilisée par d’autres géants de la technologie. Dans le même temps, la société Apple a décrit de manière encore plus précise comment tout cela fonctionnerait réellement. S'il y a une correspondance lors de la comparaison de la base de données avec les images sur iCloud, un bon sécurisé cryptographiquement est créé à cet effet.

Comme déjà mentionné ci-dessus, le système sera également relativement facile à contourner, ce qui a été confirmé directement par Apple. Dans ce cas, désactivez simplement Photos sur iCloud, ce qui permet de contourner facilement le processus de vérification. Mais une question se pose. Est-ce que ça vaut le coup? Quoi qu’il en soit, la bonne nouvelle reste que le système n’est mis en œuvre qu’aux États-Unis d’Amérique, du moins pour le moment. Comment voyez-vous ce système ? Seriez-vous favorable à son introduction dans les pays de l’Union européenne, ou s’agit-il d’une trop grande intrusion dans la vie privée ?

.