Faut-il adapter le droit européen de la concurrence à l’ère de l’intelligence artificielle ? Une analyse en trois volets: concentration, entente, contrôle

(2025)

Files

OUELDCHAIB_30692301_2025.pdf
  • Closed access
  • Adobe PDF
  • 1.29 MB

Details

Supervisors
Faculty
Degree label
Abstract
Ce mémoire examine dans quelle mesure le droit européen de la concurrence demeure efficace face aux transformations induites par l’intelligence artificielle. L’essor rapide de cette technologie bouscule les dynamiques économiques, avec une concentration des ressources critiques entre les mains de quelques acteurs majeurs, et soulève la question centrale de savoir si les outils juridiques existants suffisent à encadrer ces nouveaux comportements . Pour y répondre nous adoptons une approche en trois volets, analysant successivement : (1) les barrières à l’entrée et les phénomènes de concentration dans l’écosystème de l’IA, (2) le potentiel de l’IA à faciliter des ententes anticoncurrentielles via les algorithmes, et (3) l’utilisation de l’IA par les autorités de concurrence elles-mêmes. 1. Concentration et barrières à l’entrée dans l’écosystème de l’IA La première partie met en évidence que l’IA générative s’appuie sur une chaîne de valeur hiérarchisée, où l’accès aux intrants essentiels (données massives, puissance de calcul, talents spécialisés) détermine les positions de marché . Ces ressources stratégiques sont fortement concentrées chez quelques grandes entreprises du numérique, ce qui crée des barrières à l’entrée élevées et des effets de verrouillage freinant la concurrence . Dans ce contexte, les partenariats entre géants technologiques et startups jouent un rôle ambivalent : ils offrent aux nouveaux entrants un accès aux ressources nécessaires pour innover, tout en risquant de renforcer la dépendance de ces jeunes acteurs vis-à-vis des plateformes dominantes . Le cadre juridique actuel (articles 101 et 102 TFUE, contrôle des concentrations) prévoit certes des outils pour prévenir les abus de telles situations, mais leur mise en œuvre dans le secteur de l’IA demeure délicate, notamment pour l’article 102 du fait de la difficulté à définir le marché pertinent dans un écosystème hétérogène caractérisé par de fortes interdépendances verticales. Le droit en vigueur peut donc s’appliquer, mais uniquement au prix d’une vigilance accrue et d’une analyse très fine des effets concurrentiels propres à ces alliances stratégiques. 2. L’IA comme outil d’entente anticoncurrentielle La deuxième partie explore comment l’IA peut être détournée en vecteur d’ententes anticoncurrentielles à travers l’utilisation d’algorithmes sophistiqués. L’étude examine plusieurs scénarios d’ententes algorithmiques où des comportements collusoires entre concurrents émergent. Dans certains cas, les entreprises programment intentionnellement leurs algorithmes pour aligner leurs décisions (par exemple suivre automatiquement le prix des concurrents), ce qui reste répréhensible en tant qu’accord ou pratique concertée classique au sens de l’article 101 TFUE. Toutefois, dans d’autres situations plus inédites, des algorithmes dotés de mécanismes d’apprentissage automatique, peuvent converger spontanément vers une stratégie collusoire commune sans qu’aucune volonté commune claire ne soit établie entre les entreprises. Ce cas de figure met en lumière une limite du droit actuel : la notion de “volonté commune”, pierre angulaire pour prouver une entente, devient difficile à appliquer lorsque la coordination résulte du fonctionnement autonome d’algorithmes plutôt que d’une décision consciente des parties. En conséquence, face à ces collusions algorithmiques sans accord explicite, le droit de la concurrence se trouve en partie désarmé et pourrait exiger des adaptations pour combler ce vide . 3. L’IA au service des autorités de concurrence La troisième partie change de perspective et s’intéresse à l’emploi de l’IA par les autorités de concurrence elles-mêmes. L’intégration d’outils algorithmiques dans les enquêtes offre aux régulateurs des moyens puissants pour détecter plus rapidement des cartels ou abus : l’IA permet d’analyser des volumes massifs de données et de repérer précocement des schémas inhabituels ou des anomalies de marché, orientant ainsi les investigations de façon proactive . Cette innovation méthodologique promet des gains d’efficacité importants dans la détection et la poursuite des infractions. Toutefois, elle soulève aussi de majeurs enjeux juridiques et éthiques en matière de garantie procédurale. En effet, les outils d’IA sont souvent des « boîtes noires » : leur opacité rend difficile l’explication des résultats obtenus, ce qui peut compromettre les droits de la défense des entreprises mises en cause. Le mémoire insiste donc sur la nécessité de mettre en place des garde-fous. Les autorités doivent garantir la transparence et l’explicabilité des algorithmes utilisés, et veiller au respect des droits fondamentaux (droit de la défense). L’usage de l’IA par les régulateurs n’est envisageable qu’à condition d’un encadrement strict assurant à la fois l’efficacité des outils et le respect des garanties procédurales. L’IA apparaît ainsi non seulement comme un défi concurrentiel, mais aussi comme une opportunité pour améliorer l’action des autorités, à condition de l’exploiter avec une vigilance juridique constante. Conclusions principales et recommandations En conclusion, l’analyse montre que le droit européen de la concurrence n’est pas complètement dépassé par l’essor de l’intelligence artificielle, mais qu’il n’y est que partiellement adapté. Les outils traditionnels demeurent pertinents et permettent encore de traiter une part significative des comportements problématiques liés à l’IA. Toutefois, certains défis inédits créent des zones grises juridiques : la concentration extrême des intrants stratégiques, les collusions algorithmiques autonomes et l’emploi d’algorithmes opaques par les autorités ne sont qu’imparfaitement couverts par le cadre actuel. Dès lors des ajustements ciblés, plutôt qu’une refonte radicale, du droit de la concurrence pour l’adapter à l’ère de l’IA sont nécessaires. Parmi les pistes proposées figurent notamment une interprétation évolutive des notions d'accord ou pratique concertée afin d’y intégrer les collusions algorithmiques spontanées, l’instauration d’un devoir de diligence et de transparence pour les entreprises qui conçoivent ou utilisent des algorithmes, une surveillance attentive des partenariats stratégiques entre Big Tech et startups, ainsi qu’un encadrement rigoureux de l’utilisation de l’IA par les autorités afin de concilier efficacité de l’action publique et respect des droits fondamentaux.