La lettre de Frédéric Simottel n°12
A vos prompts. Prêts. Partez ! | |
La lettre de Frédéric Simottel n°12 | |
Alors que s’ouvre Vivatech, le plus grand rendez-vous de l’innovation digitale en Europe, trois lettres seront sur toutes les lèvres G.P.T. Certes l’IA générative n’est pas nouvelle. Mais désormais à la portée de tous, ne nous y trompons pas, c’est un raz de marée... - Frédéric Simottel | |
Depuis le mois de novembre, l’IA générative –et notamment son produit d’appel ChatGPT- défraie la chronique. Une fois sorti des premières « hallucinations » de cette technologie (comme son explication sur l’existence des œufs de vache…), ce modèle de langage se révèle un outil précieux d’accompagnement au quotidien. Notamment en matière cyber. Du « chatGPT for cyber » (l’utilisation de l’IA dans ses processus cyber) au « cyber for ChatGPT » (la sécurisation de ses applications d’IA générative), les modèles opératoires sont divers. Et n’omettons pas de parler de la vairante « chatGPT for hackers » ; il n’a en effet pas fallu longtemps pour que les premières cybermenaces s’emparent de cette technologie pour tromper et pirater des individus et des entreprises. | |
Rapidité dans l’innovation, métiers transformés, équilibre des acteurs bousculés | |
Que ce soit dans la cyber ou ailleurs, ChatGPT bouleverse tout. Dans sa rapidité d’innovation. Le passage des versions 3.5 à 4 en quelque semaines est plus que décoiffant. ChatGPT révolutionne nos métiers. Là où l’IA et la robotique ne semblaient s’appliquer aux tâches répétitives, l’IA générative accélère des métiers plus intellectuels. Enfin ChatGPT bouscule les équilibres établis. On pensait ainsi Google intouchable avec son moteur de recherche. Ses concurrents se sont retrouvés à sa hauteur en un bond. Bref le moment est venu de se lancer et de comprendre comme cette technologie va nous accompagner au quotidien (avec toutes les mesures de précautions, soulignées dans la tribune de Fabien Rech ci-dessous) | |
Ne pas s’intéresser à ChatGPT est une grosse erreur | |
Quel que soit votre domaine de compétences – et dans notre cas la cyber-ne pas s’intéresser à cette technologie est pour moi une très grosse erreur. Vous pourrez toujours invoquer la naïve béatitude des médias, moquer notre penchant à nous pâmer (ou à blâmer) les plus récentes innovations, je suis aujourd’hui persuadé qu’avec ChatGPT, nous sommes entrés dans une nouvelle ère de la création, de l’apprentissage, de l’usage et de la connaissance. « C’est un des plus gros chocs de ma carrière », me confiait à l’antenne le philosophe Luc de Bradandere. | |
Du coup, que doit-on avoir à l’esprit en termes de « security by design » si l’on active une stratégie d’IA générative ou si l’on doit être partie prenante dans un projet de la sorte. | |
Ecrire ses scénarios de hacking | |
Premièrement, si l’on travaille sur la création d’un nouveau produit ou service plus concurrentiel et que l’on cherche à en améliorer l'expérience clients, il est important de challenger la fiabilité de votre projet en le soumettant à des scénarios de hacking, définis via des prompts assez élaborés. | |
Deuxièmement, comme me le répètent souvent des experts du BCG avec qui j’ai l’habitude travailler, notre avantage dans le monde de l'IA en général et aujourd’hui dans l’IA générative en particulier dépend fortement de la qualité et de la quantité de vos données. Inutile de vous rappeler à quel point il est aujourd’hui compliqué d’accéder aux données internes de l’entreprise tant elles sont éclatées et de qualité très disparate. Il est donc crucial de nettoyer les ressources de données sur lesquelles vous allez entraîner votre IA. | |
Ne pas sous-estimer le besoin de talents confirmés | |
Troisièmement, pensez aux talents dont vous disposez. La mise en œuvre d'expériences pilotées par des LLM internes nécessite un ensemble de compétences spécialisées. Toutes les entreprises n’en disposent pas ! Une étude du BCG confirme que 88% des entreprises ont des difficultés à trouver des talents qui savent travailler avec l’IA. | |
Enfin, l’IA générative en mode gratuit sur OpenAI, c’est bien pour se faire la main. Mais dès que l’on se lance dans des modèles plus complexes, en travaillant notamment sur des données que l’on veut maitriser et donc dans un cadre plus structuré, les coûts de fonctionnement peuvent exploser. Les experts conseillent d’investir dans du matériel dédié dès le début du projet ; ce qui peut générer des économies significatives à plus long terme. A vos prompts ! | |
35 M€, la belle levée de fonds pour la startup Sekoia.io - interview BFM Business » Voir la vidéo Le rythme actuel de la prise de décision freine les entreprises. 61 % des personnes interrogées estiment que les décisions sont généralement rapides et efficaces, mais les délais rapportés indiquent le contraire. En moyenne, les décisions opérationnelles ont pris deux jours, les décisions tactiques sept jours et les décisions stratégiques 20 jours. 55 % des organisations ont répondu que la disponibilité des données permettait de prendre des décisions plus rapidement, mais seulement 24 % d'entre elles ont déclaré utiliser des technologies décisionnelles avancées et des outils analytiques pour automatiser les processus et faciliter la prise de ces décisions. » Voir le rapport complet | |
Une législation attendue pour un usage plus éthique de l’IA | |
Depuis plusieurs semaines, l’Union Européenne travaille pour établir un nouveau cadre juridique afin de mieux réguler le développement et l’utilisation de l’intelligence artificielle. Cette loi (IA Act) est la première émanant d’une autorité de régulation majeure et pourrait devenir une norme mondiale. | |
Cette année, l’IA, en particulier l’IA générative, est devenue un point central de notre écosystème technologique et les discussions autour de cette loi n’en sont qu’à leurs débuts. Mais qu’en est-il en matière de cybersécurité ? | |
La législation sur l'intelligence artificielle de la Commission Européenne est un premier pas attendu vers une structure de gouvernance qui va permettre d’encadrer et de promouvoir un usage plus éthique de cette technologie. Son utilisation se développant rapidement et largement, il est évident qu’un cadre réglementaire qui concilie la protection des individus tout en permettant l'innovation s’imposait. | |
Toutefois et telle qu’a été pensée, cette réglementation, parce que trop rigide, comporte un risque important. Il existe en effet un danger réel d’utilisation malveillante de l’intelligence artificielle et aucun mécanisme n’existe en parallèle pour permettre de classifier cet usage comme comportant un risque élevé. Cela se révèle inquiétant quand on sait que plusieurs acteurs malveillants ont déjà utilisé l'intelligence artificielle pour mettre au point des cyberattaques tout à fait efficaces de type phishing. Il semble donc important de faire évoluer cette législation. | |
En attendant, il incombe aux organisations de veiller à ce que leurs solutions de cybersécurité mobilisent les capacités d'apprentissage automatique offerte par l’intelligence artificielle afin de garantir aux utilisateurs une défense optimale. L'intelligence artificielle participant à la création de nouvelles surfaces d’attaques, la mise en place d’une plateforme de surveillance qui a recours à un système d'apprentissage automatique utilisant l’intelligence artificielle s’impose. | |
“Face à l’évolution rapide de l’IA générative, il est plus que crucial d’établir des réglementations spécifiques pour protéger les organisation et institutions gouvernementales.” | |
Fabien Rech, senior vice-président et directeur général EMEA Trellix Linkedin | |
Vous avez aimé cet article ? | Aimez, partagez et abonnez-vous. | |
BFM Business Cybersécurité |
| |
A propos de l’auteur de cet article | |
Frédéric Simottel | Éditorialiste High-Tech sur BFM BUSINESS et BFMTV. Ingénieur télécoms et réseaux de formation, ce journaliste spécialisé occupe depuis plus de 28 ans une position privilégiée en tant qu’observateur d... |
| |