L’analyse prédictive peut-elle être sécurisée pour l’homme ?
L’analyse prédictive à grande échelle est un phénomène relativement nouveau, qui remet en question à la fois des décennies de droit et la réflexion des consommateurs sur la protection de la vie privée.
En tant que technologie, elle peut sauver des milliers de vies dans des applications comme la médecine prédictive, mais si elle n’est pas utilisée avec soin, elle peut empêcher des milliers de personnes d’obtenir des prêts, par exemple, si un algorithme de souscription est biaisé contre certains utilisateurs.
Lire également : Kaiber : créez des vidéos facilement avec cet outil innovant
Il y a quelques semaines, j’ai discuté avec Dennis Hirsch des défis posés par cette nouvelle économie des données. M. Hirsch est professeur de droit dans l’État de l’Ohio et directeur du programme sur les données et la gouvernance. Il est également affilié au Risk Institute de l’université.
“L’éthique des données est la nouvelle forme d’atténuation des risques pour l’économie algorithmique “, dit-il. Dans un monde post-Cambridge Analytica, chaque entreprise doit évaluer les données dont elle dispose sur ses clients et atténuer le risque de préjudice. Cependant, la façon d’y parvenir est à la fine pointe du nouveau domaine de la gouvernance des données, qui étudie les processus et les politiques par lesquels les organisations gèrent leurs données.
A découvrir également : SpaceX lance la première mission de capsule Crew Dragon en préparation pour les vols astronautes
Tu lis le Extra Crunch Daily. Vous aimez ce bulletin ? Abonnez-vous gratuitement de suivre toutes nos discussions et tous nos débats.
“La réglementation traditionnelle sur la protection de la vie privée demande si vous avez donné un avis à quelqu’un et lui avez donné le choix “, explique-t-il. Ce principe est à la base de la loi européenne sur la protection du PIBR et de la mosaïque de lois américaines qui protègent la vie privée. Elle repose sur l’idée simpliste qu’une donnée – telle que l’adresse d’un client – ne devrait pas être partagée avec, disons, un spécialiste du marketing à l’insu de l’utilisateur. La protection de la vie privée consiste à protéger le carnet d’adresses, pour ainsi dire.
L’essor de l'” analyse prédictive ” a cependant complètement démoli cette législation sur la protection de la vie privée. L’analyse prédictive est un terme flou, mais signifie essentiellement interpréter des données brutes et tirer de nouvelles conclusions par inférence. C’est l’histoire de la fameuse crise des données de Target, où le détaillant a recommandé des produits liés à la grossesse aux femmes qui avaient certaines habitudes d’achat. Comme Charles Duhigg l’expliquait à l’époque :
Beaucoup d’acheteurs achètent du savon et des boules de coton, mais quand quelqu’un commence soudainement à acheter beaucoup de savon inodore et de gros sacs de boules de coton, en plus des désinfectants pour les mains et des débarbouillettes, cela indique qu’ils pourraient se rapprocher de leur date de livraison.
L’analyse prédictive est difficile à prévoir. Hirsch dit : “Je ne pense pas qu’aucun d’entre nous sera assez intelligent pour comprendre l’analyse prédictive.” Parlant des clients, il a dit : “Elles abandonnent leurs articles de surface – comme les boules de coton et la lotion pour le corps non parfumée – elles savent qu’elles partagent cela, mais elles ne savent pas qu’elles renoncent à leur statut de grossesse. … Les gens ne sauront pas comment se protéger parce qu’ils ne peuvent pas savoir ce que l’on peut déduire de leurs données de surface.”
En d’autres termes, l’ampleur de ces prédictions mine complètement l’avis et le consentement.
Même si la loi n’a pas rattrapé ce problème exponentiellement plus difficile, les entreprises elles-mêmes semblent réagir dans le sillage de Target et des scandales très publics de Facebook. “Ce que nous entendons, c’est que nous ne voulons pas mettre nos clients en danger “, explique M. Hirsch. “Ils comprennent que cette technologie prédictive leur donne une puissance impressionnante et qu’ils peuvent faire beaucoup de bien avec elle, mais ils peuvent aussi blesser des gens avec elle.” Les principaux acteurs sont les chefs de la protection de la vie privée des entreprises, un rôle qui est apparu au cours des dernières années pour atténuer certains de ces défis.
Hirsch passe beaucoup de temps à essayer d’élaborer de nouvelles stratégies de gouvernance pour permettre aux entreprises d’utiliser l’analyse prédictive d’une manière éthique, de sorte que ” nous puissions atteindre et profiter de ses avantages sans avoir à supporter ces coûts “. Il se concentre sur quatre domaines : la protection de la vie privée, la manipulation, les préjugés et l’injustice procédurale. “Nous allons établir des principes sur ce qui est éthique et ce qui ne l’est pas “, a-t-il dit.
L’accent a été mis en grande partie sur la façon d’aider les organismes de réglementation à élaborer des politiques qui permettent de gérer l’analyse prédictive. Comme les gens ne peuvent pas comprendre dans quelle mesure on peut faire des déductions à partir de leurs données, ” je pense qu’une bien meilleure approche réglementaire est d’avoir quelqu’un qui comprend, idéalement une sorte d’organisme de réglementation, qui peut établir des limites “. Hirsch s‘est penché sur la manière dont l’autorité de la FTC en matière d’injustice pourrait constituer une voie à suivre pour mettre en pratique de telles politiques.
Il a fait une analogie avec la Food and Drug Administration. “Nous n’avons pas la capacité d’évaluer les risques d’un médicament donné[donc] nous le donnons à un organisme d’experts et leur permettons de l’évaluer “, dit-il. “C’est le genre de réglementation dont nous avons besoin.”
Dans l’ensemble, Hirsch a un point de vue équilibré sur les risques et les avantages. Il veut que l’analyse soit ” plus socialement acceptable “, tout en reconnaissant la nécessité d’un examen et d’une surveillance minutieux pour assurer la protection des consommateurs. En fin de compte, il considère cela comme incroyablement bénéfique pour les entreprises qui peuvent tirer profit de cette technologie sans risquer de provoquer la colère des consommateurs.
Qui volera le plus vos données : Chine ou Amérique ?
Parlant d’éthique des données, l’Europe est en plein milieu d’une superpuissance. Le géant chinois des télécommunications Huawei a fait de l’expansion sur le continent une priorité majeure, tandis que les États-Unis ont envoyé délégation après délégation pour convaincre leurs alliés occidentaux de rejeter les équipements chinois. Le dilemme était bien visible la semaine dernière à la CMM-Barcelone, où les deux parties ont essayé de faire valoir leurs arguments.
Cela fait des années que les révélations de Snowden n’ont pas montré que les États-Unis exploitaient une énorme infrastructure d’écoute clandestine ciblant des pays du monde entier, y compris l’Europe entière. Huawei a réitéré sa position selon laquelle elle ne vole pas l’information de son équipement et a réitéré ses demandes pour que l’administration Trump fournisse des preuves publiques des failles dans sa sécurité.
Le relativisme moral est ici abondant, mais je considère qu’il s’agit de plus en plus d’un test décisif de l’Occident sur la Chine. La Chine n’a pas caché ses ambitions de jouer un rôle de premier plan en Asie de l’Est, ni ses intentions de construire un réseau de surveillance massive de son propre peuple ou d’influencer les médias à l’étranger.
Ces tactiques, cependant, sont tout droit sorties du livre de stratégie américain, qui a perdu sa légitimité morale au cours des deux dernières décennies en raison d’une combinaison de la guerre en Irak, Snowden, Wikileaks, et d’autres scandales publics qui ont miné la confiance dans le pays à l’étranger.
La sécurité et la protection de la vie privée ont peut-être constitué un avantage concurrentiel pour les produits américains par rapport à leurs homologues chinois, mais cet avantage a été affaibli pour de nombreux pays, qui n’en ont presque plus. Nous verrons de plus en plus de pays choisir un mélange d’équipement chinois et américain dans des applications sensibles, ne serait-ce que pour s’assurer que si un pays doit voler leurs données, il pourrait aussi bien être équilibré.
Des choses qui semblent intéressantes que je n’ai pas encore lues
- Lyft S-1
- Le béton : le matériau le plus destructeur de la Terre | Les villes | Le Gardien
- La Silicon Valley sceptique à l’égard des préoccupations de Washington à l’égard de la Chine
- La France prévoit une taxe numérique de 5 % alors que les gouvernements poursuivent les géants de l’Internet – Bloomberg
- Statut de service (StaaS) – Restes de la journée
- Pourquoi les coûts américains sont si élevés (travaux en cours) | Observations des piétons
Obsessions
- Peut-être d’autres défis concernant l’utilisation des données et la responsabilité algorithmique
- Nous avons un peu un thème autour des marchés émergents, de la macroéconomie et du prochain groupe d’utilisateurs à rejoindre l’Internet.
- Plus de discussions sur les mégaprojets, l’infrastructure, et “pourquoi ne pouvons-nous pas construire des choses”.
Remerciements
A tous les membres d’Extra Crunch : merci. Vous nous permettez de sortir de la bande transporteuse de barattage de médias chargée de publicité et de passer du temps de qualité sur des idées, des personnes et des entreprises étonnantes. Si je peux vous aider, cliquez sur Répondre, ou envoyez un courriel à danny@techcrunch.com.
Ce bulletin d’information a été rédigé avec l’aide d’Arman Tabatabai de New York.
Tu lis le Extra Crunch Daily. Vous aimez ce bulletin ? Abonnez-vous gratuitement de suivre toutes nos discussions et tous nos débats.