Dans la science-fiction, et plus spécifiquement chez Philip K. Dick, la police avait recours à des mutants pour traquer les crimes… avant qu’ils ne soient commis. La nouvelle est aujourd’hui connue à travers le film de Steven Spielberg, Minority Report. Comme souvent, le monde terrifiant de Dick se fait rattraper par la réalité — à croire que cette dernière trouve les univers du romancier enviables…
Dans Minority Report, trois mutants servent à prédire les actes de criminalité au sein de l’entreprise Precrime. Ces cognitifs lisent le futur, et anticipent donc les actions illégales : pratique, la police n’a plus qu’à cueillir les coupables avant même qu’ils ne le soient.
Quand on n'a pas de mutants...
Or, dans le monde des GAFA, on n’a pas de mutants, mais on a des intelligences artificielles. Et malgré les usages douteux qui sont faits de ces machines, il semble qu’une conscience se soit développée chez les géants de la high-tech.
On apprend en effet que plus de 2000 experts, universitaires, spécialistes des NTIC, mais également des organisations comme le MIT, Microsoft, ou encore Harvard et même Google, dénoncent une étude qui devrait sortir chez l’éditeur scientifique, Springer.
Cette dernière, découlant en droite ligne de Minority Report, entend se servir d’intelligence artificielle pour prédire les crimes — mais cette fois à l’aide d’un système de reconnaissance faciale. Un modèle d’algorithme est mis en place et décrit par les chercheurs de l’Université de Harrisburg en Pennsylvanie.
La maison Springer, basée à Berlin doit donc publier le document A Deep Neural Network Model to Predict Criminality Using Image Processing, mais se heurte à une levée de boucliers sidérante.
Analyse faciale automatisée
Leur logiciel automatisé de reconnaissance faciale serait en mesure de prédire si quelqu’un va possiblement devenir un criminel. Et en réponse, toute une coalition se ligue pour dénoncer le procédé, douteux, et surtout, les risques de dérives racistes — l’algorithme codé finirait par reposer sur des préjugés raciaux…
Sur la plateforme Medium, les signataires se déchainent : le projet est rebaptisé #TechToPrisonPipeline — ou tuyaux technologiques vers la prison. Une sorte de “passez par la case reconnaissance faciale, allez directement en prison, parce que vous avez déplu à une machine”. Au moins, chez K. Dick, les mutants sont des humains…
Surtout que le meurtre de George Floyd, survenu ce 25 mai, est encore frais dans les mémoires, et que le recours à « des statistiques judiciaires pénales pour prédire la criminalité » n’aiderait pas à apaiser les tensions. La Coalition for Critical Technology, qui signe la lettre ouverte, fait ainsi preuve d’un fonds d’humanité, cachée sous la silicone. Et demande à l’ensemble des éditeurs scientifiques de veiller à ne pas publier ni maintenant ni à l’avenir des études similaires.
Évidemment, les machines derrière l’IA ne sont pas racistes en soi. Cependant, « elles reproduisent et amplifient des résultats discriminatoires ». D’autant que les outils reposent sur des « prémisses scientifiques, des recherches et des méthodes peu fiables, que de nombreuses autres études couvrant nos disciplines respectives, démystifient au fil des ans », ajoutent les experts.
La preuve par trois
Et de pointer trois écueils majeurs : le premier est celui de la criminalité même, qui repose implicitement sur un préjugé racial, à compter du moment où il analyse un visage. « D’innombrables études ont démontré que les personnes de couleur sont traitées plus durement que les blancs, dans des situations similaires, à différents niveaux du système juridique. Ce qui entraîne de graves distorsions dans les données. »
L’autre point est celui de l’apprentissage automatique, et donc de la fiabilité de l’IA. Si les efforts fournissent une apparente rigueur, cette dernière passe à côté de nombreux critères — linguistiques, culturels, comportementaux, voire des éléments implicites.
Enfin, le troisième point est celui d’une forme de prophétie autoréalisatrice. Toute technologie de prévision criminelle « reproduit les injustices et engendre un préjudice réel » aux victimes d’un système judiciaire qui est loin d’être exemplaire. Surtout que les chercheurs soulignent l’importance que leurs algorithmes prendront « comme avantage significatif aux services répressifs et autres agences de renseignements, pour prévenir les délits ».
L’homme criminel, de Cesare Lombroso
Pour les signataires de la Coalition, nous vivons à une époque « où la légitimité de l’État carcéral et les services de police en particulier est contestée ». Et l’on demande plus de respect pour les personnes, afin de rompre avec « la violence historique » et la peur instituée. Prédire des crimes sur la base d’analyses aussi fragiles ne pourra que conforter les craintes d’une injustice grandissante.
Il est vrai que Balzac faisait des gorges chaudes de la physiognomonie et de la phrénologie, dans les portraits de ses personnages. Le crâne d’un homme dans sa forme en disait alors long sur sa psychè. De même, le criminologue italien, Cesare Lombroso, avait brossé le portrait de criminels types, classés en fonction de régions du Bel Paese.
Le fantasme d’une prédétermination sociale et d’une inclinaison au crime, de par la morphologie, a la peau dure. Tant que cela restait conscrit au domaine de la littérature, on pouvait souffler…
illustration : Geralt, CC 0
June 26, 2020 at 02:09PM
https://ift.tt/3dErwg9
Une intelligence artificielle pour prédire les crimes, même Google en a peur - ActuaLitté
https://ift.tt/383rHk8
artificiel
Bagikan Berita Ini
0 Response to "Une intelligence artificielle pour prédire les crimes, même Google en a peur - ActuaLitté"
Post a Comment