Réflexion sur les impacts possibles de l’IA sur le poste de travail et sa gestion
Podcast: Play in new window | Download (Duration: 19:01 — 26.1MB)
Subscribe: Apple Podcasts | Spotify | Android | RSS | More
IA et poste de travail, voici un sujet qui n’est pas évident (vous le verrez avec la vidéo de Bernard Hacks ci-dessous). La loi de Moore s’essouffle, pour des raisons techniques — on ne peut pas progresser indéfiniment — mais aussi et surtout pour des motifs économiques. Ceci ne veut pas dire que l’innovation s’arrête, loin de là, car le cloud est présent pour pallier ces difficultés. Elargissons donc le sujet de l’IA et des terminaux à la gestion des postes de travail dans cette interview d’Eric Tavidian, dans le cadre de notre dossier sur l’Environnement de Travail du futur réalisé avec Selceon. On y verra que l’impact de l’IA n’est pas que prospectif. Il est une réalité d’aujourd’hui, notamment pour ce qui est de la gestion des parcs et de la prévention des risques de sécurité. Mais avant d’en arriver à ces impacts, commençons par définir ce dont on parle en termes d’intelligence artificielle, dans le domaine du poste de travail.
Quels sont les impacts prévisibles de l’IA sur le poste de travail et sa gestion dans le futur
Les deux domaines de l’intelligence artificielle : intelligence forte et faible.
L’intelligence faible, qu’on appelle également Machine learning ou Deep learning, est la plus communément utilisée aujourd’hui.
L’intelligence forte est celle qui vise à reproduire le cerveau humain dans sa capacité à évoluer et réfléchir de manière plus fine, et également, le fin du fin, à reproduire les sentiments humains, précise Eric.
L’intelligence artificielle que l’on voit un peu partout aujourd’hui s’appuie plutôt sur de l’intelligence faible
Prenons deux exemples d’un passé très récent, que tout le monde connaît :
- Le premier est la machine de Google (voir ici une explication détaillée sur Google Deepmind empreinte de lyrisme futuriste) qui a battu le champion du monde de jeu de Go. Contrairement à ce qu’on pourrait penser, il s’agit ici d’intelligence faible. Le Go est un jeu de un contre un, ce qui est un peu plus simple, et de plus, le jeu de Go comporte un nombre fini de possibilités.
- En revanche, le 11 juillet 2019, quelque chose est passé un peu plus inaperçu. La machine d’intelligence artificielle de Facebook (Pluribus) a battu parmi les meilleurs joueurs de poker au monde avec à peine 150 $ d’apprentissage dans le cloud ! Le niveau d’intelligence artificielle de cette nouvelle expérience était plus évolué, relève Eric, puisque la machine a analysé les réactions des joueurs et a bluffé en jouant des coups qu’aucun joueur professionnel n’aurait osé tenter.
Après des jeux comme le Go, Dota II et StarCraft II qui précédèrent Pluribus, l’IA obtient ses résultats en s’entraînant à des matchs contre elle-même. Un entraînement de plus de 20 heures produit un joueur d’IA supérieur aux meilleurs joueurs humains, ont déclaré les chercheurs – Venturebeat 11/07/19
C’est donc passé quelque peu inaperçu. Cependant, la communauté de l’intelligence artificielle en a été émue car, pour une fois, une machine a réussi à duper l’esprit humain, en mentant en quelque sorte.
Le potentiel est donc très fort, et on peut d’ailleurs s’en rendre compte dès à présent quand on met l’IA à disposition de marchés à forts enjeux comme la finance.
Zoom sur le machine learning
Ces termes sont souvent mélangés, il est important de les clarifier.
Nous ne sommes pas dans de la science-fiction puisque ces concepts, qui datent des années 50, ont évolué dans les années 70 au fil de l’augmentation de la puissance de traitement des ordinateurs (voir la vidéo ci-dessous pour bien comprendre l’importance de la puissance dans les traitements en IA).
Et il est possible d’imagner que l’utilisation des machines de l’informatique quantique pourra faire évoluer, de manière beaucoup plus rapide encore, ces concepts.
Intelligence artificielle et poste de travail ?
Il y a très peu d’intelligence artificielle sur le poste de travail parce que cela nécessite des quantités de données et des capacités de traitement phénoménales.
Pour ceux qui imagineraient pouvoir faire tourner un programme d’IA sur un simple poste de travail sans transpirer, la vidéo hilarante de Bernard Hacks alias Jabrils est conseillée. Pour exécuter un tout petit, et assez frustre, algorithme de transformation vidéo en temps réel (un programme d’IA qui lui clôt — plus ou moins — les lèvres alors qu’il parle) il a dû se tourner vers un PC de 10 000 $ ! La loi de Moore commence à patiner un peu et sa fin est peut-être même en vue.
Ceci explique pourquoi ce type de technologies et de processus est plutôt intégré sur des plateformes SaaS, qui ont un impact sur le poste de travail et pour l’utilisateur.
Aujourd’hui, on parle de deux usages principaux, la sécurité et l’aide au diagnostic
Les premiers usages de l’IA faible ont été les bots, largement utilisés sur les grosses plateformes (comme celle d’Orange par exemple) pour assurer le support auprès des particuliers. Ensuite, les outils de traduction en ligne ont eu un impact pour les utilisateurs, mais pas forcément sur le poste de travail.
[NDLR L’Allemand Deepl dispose d’une version Desktop, mais les calculs se font dans le cloud]
Prédire les futurs incidents avec des data lakes
Pour ce qui concerne le poste de travail, une application importante de l’IA arrive à maturité. Il s’agit de la compréhension du fonctionnement du poste de travail au travers du relevé de l’ensemble de ses logs, en les mettant à disposition dans un datalake pour en analyser les signaux forts et les signaux faibles. Ainsi, par anticipation, il est possible de prédire un futur incident pour 1, 10, ou quelques centaines d’utilisateurs en corrélant l’ensemble de ces éléments.
C’est ce que réalise SysTrack de la société Lakeside Software, mais d’autres sociétés proposent aussi ces services.
Ces technologies sont également présentes dans la prévention des risques cybers, dont on connaît l’importance, avec des enjeux financiers pour les entreprises qui sont énormes et qui se chiffrent en milliards de dollars par an.
EDR et XDR : du poste de travail (Endpoint) à la représentation globale du réseau (XDR)
Aujourd’hui, la plupart des éditeurs de nouvelle génération, ce qu’on appelle les EDR (Endpoint Detection and Response) ou les XDR (eXternal Data Representation), n’analysent plus des bases de signatures de virus connus, mais plutôt, à travers du machine learning, les comportements des utilisateurs ou des machines. A partir de ces données, ils mesurent un niveau de risque afin de protéger les machines contre la cybercriminalité. Citons par exemple Carbon Black de VMware, ou encore Cortex de Palo Alto.
Les XDR vont au-delà du poste de travail, et analysent le comportement de toute une chaîne de liaison, de l’infrastructure globale sur le réseau interne de l’entreprise, le réseau Internet et également sur la partie serveur, afin d’anticiper les attaques. Ils tendent à remplacer les EDR.
Ils permettent aussi de mettre en place, quelque chose que nous connaissons tous sur Microsoft 365, les classements des mails en fonction de nos habitudes, soit dans la corbeille, soit dans les mails « prioritaires » (ou « Focused » en anglais) ou moins importants (appelés « Autres » ou « Other »), soit encore dans les « junk mails » (« courrier indésirable »).
Au niveau global de l’infrastructure, quelle est la différence entre les EDR et les XDR et à quoi ça sert ?
Les EDR se concentrent sur le poste travail, pour éviter de laisser passer un ransomware par exemple. C’est le principal usage car c’est ce qui coûte cher aux entreprises.
On connaît tous ces pièces jointes bien ciblées, qui à l’ouverture se répandent sur le réseau et cryptent les données. Ensuite, on demande une certaine somme d’argent à l’entreprise pour déchiffrer les données et en récupérer l’usage.
Selon SentinelOne, cité par Techrepublic, 45% des entreprises américaines touchées par des attaques de ransomware aux USA en 2018 ont payé les hackers pour obtenir la clé mais seules 26% d’entre elles ont pu récupérer leurs fichiers. Si on se retrouve dans le cas de ces 74%, on a donc payé pour rien, ce qui est dramatique puisqu’on peut perdre un certain nombre de fichiers pour peu que les sauvegardes n’aient pas été faites dans le cloud.
Donc bien évidemment, les pros de la cybercriminalité qui tirent profit de cet énorme business, ont élargi leur domaine d’action au delà du poste de travail, pour aller jusqu’aux serveurs et aux réseaux, et essayer de percer la sécurité des entreprises. On a même vu des cas d’attaques sur des imprimantes réseaux.
Le XDR va couvrir plus largement que l’EDR le spectre d’analyse comportementale de l’infrastructure
On peut citer Cynet par exemple, une société israélienne spécialisée dans ce domaine, qui est un nouvel acteur de sécurité issu du monde du service, qui a créé une plateforme SaaS de surveillance de l’ensemble des infrastructures des entreprises.
Une logique inversée : au lieu de protéger le poste de travail, on protège le réseau de son poste de travail
On va ainsi protéger l’entreprise de ses propres équipements, et notamment en premier, le poste de travail.
Comme nous en avions parlé lors d’un précédent article, historiquement, on installait une batterie de logiciels de protection sur le poste de travail pour éviter que le poste de travail soit attaqué. A cette époque, les postes de travail étaient peu en contact avec l’extérieur, car on surfait peu sur Internet.
Aujourd’hui, le poste de travail est essentiellement un produit pris sur étagère. On va prendre un poste de travail, n’importe lequel, ils sont interchangeables.
Pendant cette période de confinement, l’utilisateur a été même amené à travailler depuis son poste personnel, chez lui, sachant qu’éventuellement, le matin même ses enfants, avec ce même poste, allaient sur des sites pas forcément fiables pour télécharger des jeux, par exemple.
Ce type d’usage sera de plus en plus répandu, où on sera en mode BYOD, la personne apportera son poste de travail, choisira le type de terminal, et le système d’information devra donc se protéger de ses propres postes de travail.
Ainsi, ce n’est pas par les écosystèmes existants qu’on a eu l’habitude d’utiliser qu’il va falloir sécuriser cet édifice, mais plutôt à travers des outils qui proposent de l’analyse comportementale et qui s’appuient sur du machine learning.
Peut-on imaginer les postes de travail de demain pilotés essentiellement par le langage, voire même la pensée ?
Des logiciels, notamment pour les personnes non-voyantes, existent depuis les années 90, ils se répandent et sont sans cesse plus performants.
Regardez le système de Jedi (et il date déjà de 2010), qui était vraiment bluffant : il permet à des personnes handicapées de piloter leur poste de travail par la pensée. J’ai vu ce type de système en test au Royaume Uni dans les années 90, et maintenant, c’est complètement fonctionnel. Hélas, le modèle économique n’a pas l’air suffisant pour avoir fait survivre cette société.
Il existe également déjà des outils capables de lire des textes importants et d’en faire des résumés
C’est la base du machine learning, car pour que la machine apprenne, elle doit savoir lire, absorber et tirer les conclusions.
Si on prend le grand débat réalisé à l’issue des grèves et des gilets jaunes par le gouvernement, les Français ont répondu à de nombreuses questions qui n’étaient pas des QCM, et leurs réponses ont été totalement analysées par des mécanismes de machine learning afin d’en préparer un résumé pour le gouvernement.
Peut-on imaginer dans le futur, une administration système et des postes de travail réalisée par intelligence artificielle ?
Nous en avons les prémices, notamment avec Workspace ONE Intelligence de VMware, qui au départ traitait de la santé des mobiles et était un complément à Workspace ONE.
Aujourd’hui il traite du même sujet pour les terminaux, intégrant les postes de travail Windows, non seulement pour administrer, mais analyser, intégrer et présenter des dérives et des solutions de prévention des risques.
La filiale de Selceon Selceon 4T2 propose d’ailleurs un logiciel qui s’appelle Merlin, qui permet d’analyser l’infrastructure et les assets informatiques de ses clients en temps réel, du serveur jusqu’au poste de travail, de donner leur état de santé.
Merlin, dès la fin 2020, proposera d’analyser et de présenter des risques d’incidentologie en s’appuyant sur du machine learning, et fera des propositions de correction anticipée des futurs incidents possibles.
L’objectif de ces outils est de fournir une aide à l’administrateur.
Un incident en production, c’est une seconde pour s’en apercevoir, une journée pour réparer, et un mois pour revenir à la normale. Donc l’idée, c’est justement d’éviter la première seconde
En termes d’administration, le vrai problème est le « finger error », c’est-à-dire que la personne a l’impression de faire exactement la même chose sur une machine ou sur une autre, et à l’arrivée, ce n’est pas la même chose.
Plus on automatise et plus on s’appuie sur des outils basés sur l’anticipation des problèmes, automatiques et basés sur l’apprentissage, plus on va limiter le risque d’incidentologie.
IA et anticipation vont aussi permettre d’optimiser les coûts de production en IT
L’objectif, pour ce qui concerne l’infogérance, est de produire de l’informatique avec des équipes très réduites, n’avoir que des gens qui font du support niveau 2 et 3, le reste étant traité par des machines. « Ce qui rend efficace économiquement le catalogue de services, mais qui également améliore la production, c’est donc double bénéfice pour nos clients » explique Eric.
Cela implique aussi de la part des administrateurs, qui sont derrière ces machines pour surveiller les réseaux et les systèmes, une montée en gamme au fil des ans. Pour Eric, ces outils sont encore naissants, mais d’ici 5 à 10 ans, on peut facilement imaginer qu’ils seront beaucoup plus puissants, et que ces administrateurs qui resteront en niveau 2 ou 3, auront à résoudre des problématiques véritablement très complexes.
Ceci ne va pas avoir un impact mineur ni sur l’emploi, ni sur la façon dont l’informatique va être staffée dans le futur
Si on regarde aujourd’hui l’alternative qui est utilisée par les grands producteurs informatiques, c’est l’offshore ou le nearshore, pour abaisser les coûts de fonctionnement. On s’aperçoit que, à quelques exceptions près, si cela va dans le sens de la baisse des coûts, la qualité de service en pâtit largement. Le machine learning va permettre justement, tout en garantissant l’optimisation des coûts, d’offrir une meilleure qualité de service.