No Thumbnail Available

Défaire l’évidence de la gouvernementalité algorithmique : l'excès du possible sur le probable

(2017)

Files

DeBecker_8370-11-00_2017.pdf
  • Open access
  • Adobe PDF
  • 2.62 MB

Details

Supervisors
Faculty
Degree label
Abstract
Ce travail adopte une approche foucaldienne du numérique. Il vise dans un premier temps à défaire l’évidence de la gouvernementalité algorithmique en montrant qu'il y a, en-deçà du réalisme statistique en vigueur, des fondements normatifs discutables que nous sommes pourtant tenus d’accepter par souci d’objectivité, alors même que celle-ci se fonde sur la fiction (efficace) d’une adhérence neutre (parce que numérique) au réel. Pour ce faire, il pose d'abord les jalons sociohistoriques de la mise en place de la statistique et analyse le type de normativité qui s'y joue, à savoir celle qui prétend non pas gouverner le réel mais bien à partir de lui. Il tente dans un deuxième temps de montrer en quoi la gouvernementalité algorithmique apparue avec les big data et rendue possible par la numérisation constitue une radicalisation du type de normativité à l’œuvre dans la statistique et instaure une logique dividuelle et préemptive qui tend à éviter les processus de subjectivation en se focalisant sur nos doubles algorithmiques et en postulant tendanciellement que ceux-ci donneront la clé de nos comportements futurs si l'on se contente de les corréler. Enfin, dans un troisième temps, il s'efforce de rendre compte de résistances à l’œuvre au sein même du savoir-pouvoir algorithmique à travers l'analyse d'une série d'enjeux en lien avec la numérisation, à savoir l'exposition de soi, le sécuritarisme et l'automatisation. Pour ce faire, il traque la présence de ratés qui indiqueraient l'excès du possible sur le probable et permettraient de penser une agentivité non seulement à partir de nos gestes proprement humains mais aussi dans la réverbération des données et dans la présence d'un incomputable algorithmique.