Par Gérard Haas et Virgile Servant-Volquin
Julian Nagelsmaan, l’entraîneur de 34 ans du Bayern Munich, possède déjà un parcours exceptionnel à bien des égards. Remarqué à Hoffenheim, confirmé à Leipzig, le talentueux technicien se distingue notamment par une approche statistique et algorithmique des performances sportives de ses joueurs.
Cette démarche lui a valu des critiques. Dans un milieu qui s’accroche encore au « flair », à la « grinta » des individualités ou à l’électrochoc d’un discours prononcé à la mi-temps, l’analyse informatique du sport a peiné à s’imposer. Accusé de voir le football à travers les yeux d’un joueur de « Football manager » ou encore d’être froid voire antipathique avec ses joueurs, Nagelsmaan s’est défendu d’être « un entraineur d’ordinateur portable » lors d’un webinar organisé par le partenaire Data de la Bundesliga, Kinexon.
Depuis 2010, des applications concrètes de l’IA dans le sport se sont nettement développées et des bases de données solides ont été constituées par des acteurs privés, comme Opta.
Revenons sur les enjeux juridiques soulevés par l’utilisation extensive des nouvelles technologies dans le sport.
L’intelligence artificielle fait référence à un ensemble de techniques permettant à des machines informatiques de simuler une forme d’intelligence réelle à l’aide d’algorithmes. Autrefois cantonnée aux centres de recherche des grandes entreprises et des institutions publiques, les développements de l’IA sont perceptibles par le grand public depuis 2015 avec la multiplication des systèmes de reconnaissance vocale, des chatbots ou du filtrage automatique de mails.
Appliqué au sport, l’IA remplit essentiellement deux fonctions : l’analyse des performances sportives et la prévention des blessures.
S’agissant des performances, il faut signaler que plus le plus sport analysé par l’IA revêt un aspect technique - avec des sportifs capables de s’illustrer par des coups de génie - moins il est facilement analysable et prédictible par l’IA. Ce n’est pas pour autant que l’IA est dénuée d’intérêt en football. Selon l’avis des experts, elle est et doit rester un outil secondaire à disposition des managers pour diriger leurs équipes.
Quant à l’amélioration de la santé des athlètes, l’IA révèle tout son intérêt dans des disciplines plus stéréotypées comme en athlétisme avec la course à pied. Il est en effet possible d’intégrer des capteurs dans les équipements sportifs et notamment les chaussures pour analyser le mouvement des pieds ou la tension cardiaque pour formuler des recommandations personnalisées à chaque sportif. L’analyse consolidée des statistiques des bases de coureurs en deep learning permet de tirer des conclusions fiables sur les facteurs de risque de blessure.
Dans le futur, il est vraisemblable que l’IA trouve sa place dans les dispositifs de réalité augmentée, avec un affichage en direct des statistiques. Plus impressionnant encore, quoiqu’il soit encore possible de douter de la possibilité de concevoir une telle IA, il serait envisageable que l’algorithme appréhende l’aspect tactique du sport et formule des recommandations pratiques du style :
« Votre numéro 10 peine à enchaîner les courses, considérez le changement tactique en 4-3-3 ».
Le RGPD définit les données personnelles de la façon suivante[1] :
« Toute information se rapportant à une personne physique identifiée ou identifiable »
S’il ne fait aucun doute que les données de santé d’un joueur comme son historique de blessures ou encore les clubs dans lesquels il a joué sont bien des données personnelles, la question reste ouverte s’agissant des données de match.
Le nombre de passes, de tirs, les mouvements ou encore la vitesse moyenne des joueurs se rattachent évidemment à un individu, mais le doute est permis quant à la faculté d’identifier précisément le joueur derrière les statistiques.
Si les données de match venaient à être considérées comme personnelles, les responsables de traitement devraient appliquer les principes du RGPD à leurs traitements et notamment la définition d’une base légale de traitement, la minimisation des données ou encore le respect d’un certain temps de conservation.
Cette question est au cœur d’un contentieux récent intenté par un groupe de footballeurs anglais à des sociétés de paris sportifs. A l’appui de leurs prétentions, il est soutenu que les footballeurs n’ont pas consenti à l’utilisation de leurs données – supposément personnelles. En cas de succès de l’action, l’économie des plateformes agrégeant des données sportives pourrait être profondément chamboulée.
Les avocats des footballeurs anglais soutiennent, entre autres, que le contrôle des statistiques de joueurs impacte fortement leur carrière. En effet, le taux de réussite des tacles, passes, le poids, la taille des joueurs sont autant de données scrutées par les recruteurs dans leur prospection de nouveaux talents.
L’histoire footballistique est pleine de surprises. Des joueurs au gabarit atypique comme Lionel Messi ou Antoine Griezmann ont suscité le doute de nombreux formateurs professionnels avant d’exploser dans le football professionnel.
Un développement incontrôlé de l’IA ferait peser sur les mécanismes de recrutement un risque sérieux de profilage des recrues. En 2019, le PSG se faisait sanctionner par la Ligue de Football Professionnel (LFP) pour avoir édité un document indiquant l’origine ethnique supposée des joueurs.
Or, le profilage et la décision individuelle automatisée sont prohibés par le RGPD[2] :
« La personne concernée a le droit de ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé, y compris le profilage, produisant des effets juridiques la concernant ou l'affectant de manière significative de façon similaire. »
Dans ces conditions, il est prohibé d’utiliser ou de configurer un logiciel qui écarterait de manière automatique les candidatures des joueurs ne remplissant pas certains critères physiques comme une limite de poids ou de densité osseuse. L’intervention d’un être humain reste nécessaire en tout état de cause.
Le déploiement progressif de l’IA dans tous les aspects du sport (recrutement, jeux vidéos, statistiques, supportérisme, paris sportifs, amélioration de la santé et des performance…) bouleverse les repères éthiques traditionnels.
Consciente des enjeux majeurs liés aux abus potentiels de l’IA, la Commission européenne a élaboré un projet de règlement sur l’IA, qui concerne tous les acteurs mettant en œuvre un traitement basé sur des algorithmes d’intelligence artificielle.
Adoptant une approche basée sur le risque, le projet de règlement établit une classification en quatre degrés du risque de chaque IA. Certaines IA sont présumées à haut risque, comme la catégorisation des personnes physiques.
Les opérateurs d’algorithmes d’IA à haut risque ont vocation à être soumis à un nombre significatif de nouvelles obligations comme :
***
Le Cabinet HAAS Avocats, fort de son expertise depuis plus de 20 ans en matière de nouvelles technologies accompagne ses clients dans différents domaines du droit, notamment en matière d’algorithmes et de données et plus précisément en matière d’intelligence artificielle. N’hésitez pas à faire appel à nos experts pour vous conseiller sur ces questions. Contactez-nous ici
[1] Article 4.1
[2] Article 22