marketing digital

Data Science : Éthique et Science Des Données Sont Indissociables

Data Science et éthique sont-elles compatibles ?

La force combinée des données et des technologies de l’information fait progresser l’innovation dans presque tous les domaines de l’entreprise humaine. De la même manière, la Data Science [NDT: je garderai ici le terme anglais de Data Science que je ne peux traduire par l’expression littérale « Science des Données », même si le sens en est exact] influence aujourd’hui profondément la manière dont le monde des affaires évolue dans des domaines aussi divers que les sciences de la vie, les Smart Cities et les transports. 

Aussi convaincantes que soient devenues ces avancées, les dangers de la Data Science sans considérations éthiques sont tout aussi évidents – qu’il s’agisse de la protection de données personnellement identifiables, de la partialité implicite dans la prise de décision automatisée, de l’illusion du libre choix dans le rapport à la segmentation démographique, des impacts sociaux de l’automatisation ou du divorce évident entre confiance et réalité dans la communication virtuelle. 

Justifier la nécessité de mettre l’accent sur l’éthique de la Data Science va au-delà d’une simple observation de ces opportunités et de ces défis, car la pratique de la Data Science remet en question notre perception de ce que signifie d’être humain.

Cette contribution a été inspirée par la remarquable contribution de Julie Compagny dans un article qu’elle a écrit pour Digital Me Up. Digital Me up est le blog de nos étudiants du Master Spécialisé international en Stratégie Numérique (Digital Business Strategy) de Grenoble Ecole de Management, où j’enseigne. Julie en est l’une des étudiantes de l’année académique 2018-2019. Ce sujet sera au menu de la conférence du mois prochain sur «Technologie et innovation», que je présenterai dans les locaux de l’incubateur de Vinci, qui porte bien son nom, Leonard.

La Data Science influence les pratiques commerciales d’aujourd’hui

Margo Boenig-Liptsin souligne que notre recours croissant à la technologie de l’information a fondamentalement transformé les concepts traditionnels de « confidentialité », « équité » et de « représentation », sans oublier celui de « Libre choix », « vérité » et « confiance » . Ces mutations soulignent l’empreinte et les responsabilités croissantes de la Data Science — et pas seulement en termes de 0 et de 1 — car la Data Science ébranle les fondements perceptuels de la valeur, de la communauté et de l’équité.

Si les universités ont rapidement mis en place des programmes de Data Science axés sur les statistiques, le calcul et le génie logiciel, peu de programmes répondent aux préoccupations sociétales plus vastes de la Data Science. Moins nombreux encore sont ceux qui analysent la façon dont les pratiques responsables en matière de données peuvent être conditionnées et même encouragées. Décrivons en grandes lignes ce défi qui se présent à nous.

Citoyens au royaume de la Data Science

Peut-être aucun des domaines de l’éthique liés à Data Science n’a retenu plus d’attention que la protection des données personnelles. La transformation numérique de nos interactions avec les communautés sociales et économiques révèle qui nous sommes, ce que nous pensons et ce que nous faisons.

L’ introduction récente de la législation en Europe (RGPD), en Inde (loi sur la protection des données personnelles de 2018 – « Personal Data Protection Act »), et en Californie (« California Consumer Privacy Act » de 2018) reconnaissent spécifiquement les droits des citoyens numériques et abordent implicitement les dangers de l’utilisation commerciale de données personnelles et personnellement identifiables.

Ces cadres juridiques tentent de rééquilibrer les relations inégales en termes de pouvoir et d’influence entre les organisations et les individus au travers de la codification de critères éthiques, notamment le droit à l’information, le droit de s’opposer, le droit d’accès, le droit de rectification et le droit à l’oubli.

L’attention accordée à cette législation va bien au-delà des préoccupations liées à la protection des données. Ces tentatives de définition de pratiques appropriées et illicites en matière de données répondent à un certain nombre de questions éthiques.

À mesure que les données deviennent la nouvelle monnaie d’échange de l’économie mondiale, les frontières entre public et privé, entre individus et société, et entre riches et pauvres sont en train d’être redessinées.

Qui est propriétaire des données personnelles et quels droits peuvent être attribués avec un consentement explicite ou implicite ? Dans quelle mesure les organisations publiques et privées devraient-elles être capables de collecter et de contrôler les vastes archives de nos interactions humaines ?

Dans quelle mesure ceux responsables du contrôle et du traitement des données devraient-ils être tenus pour responsables de la perte ou de la mauvaise utilisation de nos données ?

Prise de décision automatisée

La capacité à prendre des décisions en toute conscience entre différentes possibilités a longtemps été considérée comme une condition qui sépare l’homme (ou du moins le vivant) des machines.

À mesure que les innovations en science des données progressent dans le commerce algorithmique, les voitures autonomes et la robotique, la distinction entre intelligence humaine et intelligence artificielle devient de plus en plus difficile à distinguer.

Les applications actuelles de l’apprentissage automatique franchissent le seuil des systèmes d’aide à la décision et entrent dans le domaine de l’intelligence artificielle où des algorithmes sophistiqués sont conçus pour remplacer la prise de décision humaine.

Le franchissement de ce seuil introduit plusieurs considérations éthiques. Les organisations économiques et / ou sociales peuvent-elles s’appuyer sur des méthodologies de plus en plus complexes dans lesquelles beaucoup ne comprennent ni les hypothèses ni les limites des modèles sous-jacents ?

Sommes-nous disposés à accepter le fait que ces applications, qui de par leur nature même, tirent les leçons de notre expérience – nous rendent prisonniers de notre passé et limitent notre potentiel de croissance et de diversité ?

Comprenons-nous que la logique inhérente à ces plateformes peut être mise en jeu – ce qui crée des opportunités pour «tricher» avec le système ?

Enfin et surtout, qui est légalement responsable du biais implicite inhérent à la prise de décision automatisée ?

Micro-ciblage et Data Science Ethique

John Battelle a suggéré il y a plusieurs années que nos empreintes numériques vont fournir des feuilles de route indélébiles à travers la base de données de nos intentions . 

Le leitmotiv de la Data Science a été d’aider les organisations à comprendre les objectifs, les motivations et les actions des individus et des communautés. Les travaux de Michal Kosinski et David Stillwell ont été encore plus prometteurs en suggérant que la pertinence de l’analyse prescriptive peut être grandement améliorée en se concentrant sur les modèles de comportement (traits de personnalité, croyances, valeurs, attitudes, intérêts ou modes de vie) plutôt que des grappes de données démographiques.

Les applications du micro-ciblage ont depuis été présentées comme de puissants outils d’influence dans les domaines du marketing, de la politique et de l’économie.

Même si la capacité d’un individu à exercer le «libre choix» a longtemps fait l’objet de débats, la pratique consistant à ne fournir aux consommateurs que des informations avec lesquelles ils seront d’accord pousse le bouchon encore plus loin.

De plus, les techniques de micro-ciblage permettent aux chercheurs d’extrapoler des informations sensibles et les préférences personnelles des individus même lorsque ces données ne sont pas capturées de manière spécifique.

Enfin, lorsque le «client devient le produit», il existe un risque réel que la Data Science soit moins utilisée pour améliorer l’offre de produits ou de services d’une entreprise que pour transformer les consommateurs en objets de manipulation.

Registres distribués éthique et Data Science

Les technologies de l’information ont longtemps eu pour objectif de fournir une version unique de la vérité afin de faciliter les échanges de produits, de services et d’idées.   Pour un certain nombre de raisons liées à l’évolution de l’économie mondiale et des marchés nationaux, un fossé de perception s’est creusé entre cette vérité du terrain et la confiance des consommateurs dans les intermédiaires (comme l’État, les banques et les entreprises) qui captent, collectent et monétisent ces données. Les mécanismes sociaux du World Wide Web déforment encore plus la relation en mettant sur un pied d’égalité la réalité et la fiction, favorisant les extrêmes au point de leur donner l’apparence banale de la normalité.

En principe, les technologies de registre distribué, et les technologies de Blockchain en particulier, sont une lueur d’espoir en vue de la mise à nu d’une plus grande transparence et d’une meilleure traçabilité dans les sources d’informations.

Pourtant, cette vision d’un Internet amélioré est partiellement assombrie par les défis sociétaux potentiels de technologies largement non testées. La technologie en soi peut-elle être la norme en matière de vérité et de confiance ? Dans quelle mesure les personnes et les organisations accepteront-elles la primauté de la transparence ? Sur quelle base les valeurs sociales — comme le droit à l’oubli — peuvent-elles être conciliées avec les exigences techniques des registres  publics ? Libérée des conventions et de la logique du capitalisme financier, la nature humaine peut-elle accepter une base radicalement différente pour la répartition de la richesse ?

Intelligence humaine et machine

Data Science Ethique
Le BAI s’occupe de Data Science et aussi d’éthique de la Data Science

Bien que l’impact des technologies de l’information sur l’organisation des entreprises privées et publiques a été largement débattu au cours des quatre dernières décennies, l’impact de la Data Science sur la gestion des entreprises a fait l’objet de beaucoup moins d’attentions. Dans la presse spécialisée, la technologie est souvent considérée comme éthiquement neutre, constituant un miroir numérique des paradigmes de gestion dominants à tout moment.

Dans le monde universitaire, les relations sont soumises à un examen plus approfondi. Des auteurs tels que Latour, Callon et Law ont montré comment différentes technologies influent sur la manière dont les gestionnaires, les employés et les clients perçoivent la réalité des échanges sociaux et économiques, des marchés et des secteurs économiques.

En se concentrant sur la Data Science, ces préoccupations relatives au contexte mettent en lumière leurs propres considérations éthiques. Si les données ne sont jamais objectives, dans quelle mesure la direction doit-elle comprendre le contexte dans lequel les données ont été collectées, analysées et transmises ?

De même, les algorithmes étant de plus en plus répandus et complexes, dans quelle mesure les gestionnaires doivent-ils appréhender leurs propres hypothèses et leurs limites ? Comme les applications assument des rôles de plus en plus importants dans les processus métier clés, dans quelle mesure faut-il définir la gestion en fonction de la coordination des agents humains et virtuels ?  Vu sous un autre angle, à mesure que l’intelligence artificielle évolue, quelles fonctions de gestion devraient être déléguées aux robots et lesquelles devraient être réservées aux humains ?

La session d’automne du BAI explorera les opportunités et les défis des citoyens numériques, à la prise de décision automatisée, au micro-ciblage, aux registres distribués et à l’intelligence artificielle à l’aide de témoignages et de cas d’entreprise issus des secteurs public et privé. La session est ouverte aux étudiants en gestion et élèves ingénieurs, ainsi qu’aux professionnels en activité. Pour plus de détails et pour s’inscrire, veuillez consulter Baifall.com

Lee Schlenker

Lee Schlenker

Prof. Lee SCHLENKER teaches in the fields of Business Analytics and Community Management and is a Senior Consultant at the Business Analytics Institute.
Bouton retour en haut de la page