Connexion

Alexandra Neri murmure à l’oreille des algorithmes

Par LA LETTRE DES JURISTES D'AFFAIRES

La spécialiste du droit de la propriété intellectuelle et des nouvelles technologies du bureau parisien du cabinet Herbert Smith Freehills, Alexandra Neri, est l’une des avocates les plus en vue en matière d’IA. Intervenant en conseil comme en contentieux, elle a l’oreille des plus grands acteurs du secteur.

Un regard franc et pétillant d’intelligence, un accent grec exquis qui fait voyager, combiné à une passion dévorante lorsqu’elle s’exprime. La rencontre d’Alexandra Neri ne laisse personne indifférent. Elle est impressionnante, certains la surnomment même la redoutable… Et pour cause ! Elle a été la première avocate française à s’être faite remarquée, dans les années 2000, sur des dossiers emblématiques du droit de l’Internet comme celui d’AlTavista, premier moteur de recherche avant Google, victime de cybersquatting. Cette affaire l’a propulsée au cœur des problématiques juridiques liées au numérique, la conduisant à développer une approche holistique et pragmatique face aux défis que posent les technologies émergentes. Et grâce à sa culture internationale marquée – d’origine grecque, elle parle cinq langues couramment – Alexandra Neri a su s’imposer dans un univers juridique exigeant. « Je considère que mon intégration dans le monde juridique a été facilitée par l’accueil bienveillant de mes confrères et des magistrats », ­déclare-t-elle. D’autant qu’elle a plus d’un tour dans son sac -ou plutôt plus d’un dossier ! Elle a depuis plaidé des affaires majeures devant la Cour de justice de l’Union européenne, notamment dans le cadre du litige sur Google AdWords qui a contribué à façonner le modèle économique du géant américain. Elle a également représenté Twitter dans une affaire de discours haineux, et défendu des plateformes de ­commerce en ligne comme Alibaba ou encore Tripadvisor.

Une vision claire des enjeux liés à l’IA et à la réglementation européenne

Alexandra Neri est une observatrice avisée de l’évolution du marché des nouvelles technologies. « L’IA ne relève plus de la science-fiction mais s’impose dans des domaines clés tels que le recrutement, l’octroi de crédits bancaires ou la création de contenu », précise-t-elle. Dans son quotidien, l’IA est d’ailleurs devenue un outil précieux : « Je l’utilise tous les jours pour le classement de données brutes, la vérification de syntaxe et l’analyse de documents volumineux, tout en restant consciente des limites de cette technologie, encore binaire et dénuée de complexité ».

Face à cette nouvelle révolution, l’avocate insiste sur l’importance d’une régulation adaptée et sur l’approche par le risque prônée par l’AI Act européen. Or sur ce sujet, elle est intarissable. Dans un élan quasi-passionné, Alexandra Neri souligne que l’IA génère des risques inédits, notamment en matière de responsabilité : discrimination algorithmique, atteinte à la protection des données, cybersécurité et respect des droits des tiers. L’un des défis majeurs réside dans l’évaluation et la classification des risques liés à ces technologies, notamment pour déterminer si un système relève d’un risque élevé ou raisonnable. Cette distinction n’est pas toujours évidente dans le cadre du travail quotidien, où l’IA est omniprésente mais parfois difficile à identifier. La mise en conformité avec le règlement européen nécessite en outre la mise en place de mesures de remédiation et le respect des exigences de transparence. Parmi les principaux points d’attention figurent l’anonymisation des données personnelles pour entraîner des modèles d’intelligence artificielle, l’évaluation des impacts et l’évolution rapide des contentieux liés à la classification des systèmes d’IA. « À ce jour, certaines questions restent sans réponse et peu de contentieux ont encore émergé, mais il est certain que de nombreux litiges apparaîtront à l’avenir », confie l’experte. Et on est tenté de la croire…

Selon elle, la question de la responsabilité du fournisseur d’un système d’IA est un enjeu crucial. Les risques sont avérés, notamment en matière de véhicules autonomes (responsabilité en cas d’accident), ou encore de discrimination à l’embauche due à des biais algorithmiques. « Un autre point sensible concerne la confidentialité des informations transmises aux fournisseurs de solutions d’IA, expose-t-elle. Lorsqu’une entreprise partage des données stratégiques (techniques, technologiques ou commerciales) pour le développement d’un système sur-mesure, elle court le risque que ces informations soient exploitées au profit d’un concurrent ». Son conseil aux entreprises est donc sans ambages : « Il faut adopter une analyse rigoureuse des risques, documenter toutes les mesures mises en place pour anticiper les contrôles des autorités de régulation telles que la Cnil, la DGCCRF ou l’Arcom ».