Navigation

La Suisse va-t-elle prendre ses distances vis-à-vis de l’UE sur la surveillance de masse?

La nouvelle loi antiterroriste suisse permet à la police fédérale de décider de mesure de surveillance électronique sans avoir à passer par l'accord d'un tribunal. Westend61 / Jess Derboven

L’accord-cadre est mort au moment même où Bruxelles s’emploie à réglementer la surveillance de masse basée sur l’intelligence artificielle. De quoi remettre en question l’avenir des normes sur la protection de la vie privée en Suisse, alors que les électeurs viennent d’adopter une des lois antiterroristes les plus strictes d’Europe.

Ce contenu a été publié le 09 juillet 2021 - 12:28

À fin mai, après sept ans de négociations, le Conseil fédéral a sabordé l’accord-cadre avec l’Union européenne, donnant un coup d’arrêt à des relations bilatérales qui avaient de toute façon atteint un niveau historiquement bas. Peu après, le 13 juin, le peuple suisse a voté clairement en faveur de la loi fédérale sur la lutte contre le terrorisme, qui donne à la police des pouvoirs accrus pour intervenir à titre préventif.

La rupture avec l’UE intervient à un moment charnière des efforts de l’Europe pour lutter contre l’utilisation des technologies de surveillance des populations, non seulement par les entreprises privées, mais aussi par la police. La Commission européenne travaille en effet sur la première législation au monde visant à réglementer l’intelligence artificielleLien externe (IA). La proposition actuellement en discussion traite des risques de cette technologie et définit des obligations claires concernant ses utilisations spécifiques.

Bruxelles a notamment dans le collimateur les systèmes d’identification biométrique (dont la reconnaissance faciale), qui sont de plus en plus déployés dans les espaces publics - souvent à l’insu des gens - à des fins de surveillance, de collecte de données et d’application de la loi. 

Au début de l’année, Amnesty International a lancé une campagneLien externe contre l’utilisation des technologies de reconnaissance faciale à des fins d’identification par des autorités publiques et des organismes privés. Selon l’ONG, «la reconnaissance faciale risque de devenir une arme aux mains des forces de l’ordre contre des communautés marginalisées à travers le monde». Dans le même temps, elle s’est aussi prononcée contre la nouvelle loi suisse sur les mesures policières de lutte contre le terrorisme, jugeant que ce texte «dangereusement vague» constituerait «une menace pour l’avenir». Du moment que la loi contribue à augmenter la surveillance, elle pourrait indirectement mener à l’augmentation de l’utilisation de ces systèmes d’identification que Bruxelles tente d’interdire, estiment les observateurs.

«Dans le contexte européen libéral-démocratique, la loi suisse est certainement l’une des plus extrêmes. Dans certains cas, elle accorde des pouvoirs sans précédent à la police fédérale», avertit Lukas Hafner, coordinateur de la campagne Technologie et Droits humains d’Amnesty Suisse. Même le Conseil de l’EuropeLien externe avait fait part l’année dernière de ses préoccupations quant aux violations importantes des droits de l’homme et des droits fondamentaux que permettrait cette loi. 

Où regarde l’œil électronique de la loi?

Bien que la loi antiterroristeLien externe ne mentionne pas expressément la surveillance par caméra, elle autorise la police fédérale (fedpol) à ordonner «la surveillance électronique d’un terroriste potentiel», par exemple au moyen d’un bracelet électronique (art. 23q). Plus controversé est le fait que les mesures de surveillance électronique peuvent être décidées par fedpol sans l’accord d’un tribunal, et que les données collectées peuvent être utilisées à une fin autre que celle prévue par la loi, souligne Frédéric Bernard, professeur de droit public à l’Université de Genève. «Cette loi n’empêche pas grand-chose, c’est le problème», dit-il.

Interrogée par SWI swissinfo.ch, fedpol affirme ne pas faire usage de systèmes de reconnaissance faciale et dément tout lien entre les mesures préventives citées dans la nouvelle loi et l’utilisation de telles technologies.

Ce qui n’empêche pas certains corps de police cantonaux de mettre déjà en œuvre des systèmes biométriques pour enquêter sur des infractions dans le cadre de procédures pénales. La police de Saint-Gall par exemple, utilise Analyze DI ProLien externe, un logiciel d’investigation suédois qui analyse de grandes quantités de données en utilisant l’IA et la reconnaissance faciale. Le site du fabricant, Griffeye Technologies, indique que le logiciel peut «mettre en relation les métadonnées avec des sources ouvertes sur Internet» et identifier les visages à partir de grandes quantités d’«images du monde réel». 

Or il se trouve qu’au moins quatre milliards d’humains ont un profil sur le Web, qui peut fournir de telles «images du monde réel». Des études comme celle menée par Joy Buolamwini, chercheuse au MIT Media Lab, et Timnit Gebru, ancien responsable de l’éthique de l’IA chez Google, montrent que les logiciels commerciaux d’IA sont moins précis quand il s’agit d’analyser des visages de personnes à la peau foncée et de femmes. 

Le nouveau documentaire «Coded Bias» (disponible sur Netflix) montre les préjugés des algorithmes et les défauts de la technologie de reconnaissance faciale découverts par Joy Buolamwini, chercheuse au MIT

Contenu externe

Hanspeter Krüsi, responsable de la communication de la police saint-galloise, nous précise par courriel que le matériel collecté serait «comparé par le système aux images des bases de données de la police pour rechercher des correspondances». Mais ensuite, les contrôles finaux seraient effectués par un agent en chair et en os.

«Chaque canton doit décider lui-même s’il veut utiliser cette technologie de façon sage et s’il dispose des bases légales nécessaires pour le faire», nous écrit fedpol. Mais en l’absence de lois claires définissant le cadre d’application des technologies, qui peut décider de ce qui est sage et de ce qui ne l’est pas?

«Il y a un risque d’arbitraire et d’abus qui ne peut être négligé, notamment en raison de concepts formulés de manière imprécise», explique Jean-Philippe Walter, commissaire suisse à la protection des données du Conseil de l’Europe. 

Tous les yeux tournés vers la Suisse

Ces derniers temps, Amnesty International a surveillé de près la situation des droits fondamentaux en Suisse, notamment à cause du risque d’un accroissement de la surveillance aveugle de la population.

«La loi antiterroriste suisse conduira clairement à une surveillance accrue d’un plus grand nombre de personnes, car la police fédérale veut identifier les ‘terroristes potentiels’ avant qu’ils ne commettent un quelconque crime. Il est plausible que les technologies biométriques puissent être utilisées dans ce contexte», affirme Lukas Hafner d’Amnesty. Et d’avertir que l’impact sur les personnes déjà marginalisées et victimes de discriminations pourrait être disproportionné.

La police pourrait, par exemple, décider d’installer des caméras à l’extérieur des lieux de rencontre de suspects potentiels, comme une mosquée déjà dans le collimateur, à titre de surveillance préventive, note le militant d’Amnesty.

«Ces systèmes posent des problèmes non seulement en termes de droit à l’égalité et à la non-discrimination, mais aussi en termes de liberté d’expression et de réunion, ainsi que de droit à la vie privée», juge Lukas Hafner. Le texte de la loi antiterroriste suisse précise en effet que les «opinions et activités religieuses et philosophiques» peuvent faire l’objet d’une surveillance et justifier le traitement de données personnelles très sensibles (art. 23h). Et comme la définition du terrorisme est très large, il est très probable que la loi pourra être appliquée plus largement et au-delà du champ initialement prévu, estime le professeur de droit Frédéric Bernard.

Pas de règle, pas de droit

Dans certains pays, comme les États-Unis et la Chine, la reconnaissance faciale est systématiquement utilisée à des fins d’ordre public. Dans le cas de la Chine, on s’en sert même pour classifier les comportements sociaux. En Europe, la Belgique et le Luxembourg sont les deux seuls pays où l’utilisation des technologies d’identification biométrique est interdite. Il n’y en a qu’un autre dans le monde à appliquer une telle règle, et c’est le Maroc.

Contenu externe

Avec sa proposition de loi sur l’IA, la Commission européenne veut interdire l’identification biométrique dans les espaces publics de tous les pays membres de l’Union et sanctionner ceux qui ne se conforment pas à la règle.

Même si elle a une loi sur la protection des données en partie conforme à la législation européenne sur la protection de la vie privée, la Suisse ne dispose dans son arsenal juridique de rien qui soit comparable à la norme européenne dans le domaine technologique. «Pour cela, elle devrait retourner s’asseoir à table avec l’UE et contribuer dès que possible à orienter le débat sur la gouvernance des nouvelles technologies», déclare Ricardo Chavarriaga, chef du bureau suisse de CLAIRELien externe, l’association européenne des laboratoires de recherche sur l’IA.  

Une nouvelle norme?

La loi proposée par la Commission européenne autorise l’utilisation de la reconnaissance faciale dans le cas de «crimes graves», principalement associés au terrorisme. Mais selon Ricardo Chavarriaga, et d’autres experts, elle sanctionne néanmoins une avancée significative et est appelée à devenir une norme dans le secteur de la haute technologie.

Pour lui, s’aligner tardivement ou ne pas s’aligner du tout sur la législation européenne coûterait très cher à la Suisse. Ricardo Chavarriaga craint non seulement pour la compétitivité des produits technologiques suisses sur le marché mondial, mais aussi pour les droits de l’homme.

«Certains domaines d’application technologique à haut risque, comme ceux utilisés par la police pour faire respecter la loi, pourraient avoir des effets néfastes sur la population», dit-il. «Les forces de police ne sont que le dernier maillon de la chaîne: les systèmes qu’elles utilisent sont produits par des entreprises qui leur promettent des économies d’argent et des gains d’efficacité, souvent sans fournir de réelles garanties». D’où l’importance de fixer des normes.

Personne n’achèterait un ascenseur sans certificat de sécurité, ou une montre qui ne fonctionne pas, souligne Ricardo Chavarriaga, pour qui les exigences doivent être proportionnelles aux risques. Pourquoi les systèmes d’IA feraient-ils exception, surtout lorsque des droits fondamentaux sont en jeu?

Les commentaires ont été désactivés pour cet article. Vous pouvez trouver un aperçu des conversations en cours avec nos journalistes ici. Rejoignez-nous !

Si vous souhaitez entamer une conversation sur un sujet abordé dans cet article ou si vous voulez signaler des erreurs factuelles, envoyez-nous un courriel à french@swissinfo.ch.

Partager cet article

Joignez-vous à la discussion

Avec un compte SWI, vous avez la possibilité de faire des commentaires sur notre site web et l'application SWI plus.

Connectez-vous ou inscrivez-vous ici.