• #5.5 Le nouveau SaaS, vous connaissez ?
    Jan 2 2025

    Un « nouveau » paradigme apparait, le SaaS ! Non, pas celui que vous croyez !

    Vous vous dites, ça y est, on l’a perdu ! Il est resté en 1999 à la création de Salesforce ! Non, car si le SaaS est bien vivant depuis 25 ans, le nouveau SaaS pointerait le bout de son nez selon les oracles du marketing. Nous serions en train de passer du Software as a Service au Service as a Software. Que c’est beau le monde du marketing !

    Allez, je vous explique. Le principe du Software as a Service a combiné depuis plus de deux décennies l’évolution technologique du cloud computing, et la migration du modèle d’achat de licences logicielles vers celui d’abonnement. Les deux éléments sont indépendants, mais en réalité ces deux évolutions ont été concomitantes.

    Au lieu d’acheter un logiciel, vous souscrivez à un abonnement, qui comprend le droit d’accès au logiciel, l’infrastructure technique, et les services associés. Un forfait en quelques sortes, mais payé chaque mois. À court terme, le coût en est bien plus intéressant et plus flexible, à long terme un peu moins, cependant dans un marché en évolution perpétuelle, tout le monde est gagnant.

    Mais voilà, l’intelligence artificielle (je ne sais pas trop ce qu’elle vient faire là), et 20 ans de SaaS ont épuisé les ressorts marketing et commerciaux. Il fallait réinventer ! Et l’on serait donc en train de remplacer le SaaS par le SaaS !

    Le Service as a Software serait la combinaison d’une plate-forme technologique, et de services assurés par des humains… ou des IAs. Un bon exemple est le logiciel QuickBooks très populaire en Amérique du Nord, et qui permet à chacun de s’acquitter de ses travaux comptables et de ses déclarations fiscales. Ces dernières ne sont pas réalisées par le client, mais par un comptable, qui utilise le logiciel, complété de ses compétences. Et dans le cas de QuickBooks, le comptable pourrait être une IA.

    Cela fait dire à certains analystes que le développement des agents intelligents conduit cette transformation du marché. Le client ne s’abonne plus à un logiciel qu’il utilise, mais à un service que lui rend une IA, avec un peu d’humain, parfois. Si l’on reprend l’exemple de Salesforce, un commercial humain entre les données d’un nouveau client, puis les agents dans Salesforce créent automatiquement le flux d’actions de proposition, de relance, de vente. Les nouveaux SaaS remplaceraient donc certains humains chez leurs clients.

    Tout cela n’est pas totalement nouveau. D’abord, désolé de reparler du passé, mais cela existe depuis la nuit des temps, cela s’appelle de l’externalisation. Lorsque j’envoyais mes documents comptables à mon expert-comptable et qu’il les saisissait dans son logiciel pour ensuite réaliser mes déclarations fiscales, c’était donc déjà du Service as a Software. N’allons pas réinventer des mots qui n’apportent aucune nouveauté, juste pour être « moderne ». Tiens, clin d’œil, ils auraient pu faire comme la Modern Data Stack, et l’appeler Modern SaaS !

    Plus sérieusement, la nouvelle donne vient de l’automatisation des processus. Là encore rien de nouveau, à part si cette automatisation est réalisée par des agents intelligents qui prendraient eux-mêmes, en fonction des circonstances, les bonnes décisions. Attention, pas un système expert qui se contente d’exécuter ce que l’expert a programmé – ça on le fait depuis les années 70 -, mais un véritable agent intelligent qui prendrait seul des décisions en fonction d’un entrainement à partir de données historiques.

    Selon Foundation Capital, cela représenterait un marché de presque 5000 milliards de dollars. Tout dépend bien sûr de ce que l’on met dedans. En tout cas, des dizaines d’entreprises sont déjà identifiées comme fournisseurs de Service as a Software. Si vous êtes un prestataire, qui réalise des travaux pour le compte de ses clients, de manière externalisée ; ne dites plus que vous faites de l’outsourcing, mais du Service as a Software, votre valorisation explosera peut-être ! Et puis, dites-moi ce que vous pensez de tout cela en commentaire.

    Show More Show Less
    5 mins
  • #5.4 Jean-Georges Perrin, Pape du Data Mesh et des Data Contracts
    Nov 16 2024

    Dans cet épisode, nous recevons Jean-Georges Perrin. Ce nom ne peut vous être inconnu si vous vous intéressé au "shift-left" qui émerge dans le monde des données. Les utilisateurs prennent peu à peu le contrôle de leurs données, et cela a été théorisé en 2020 dans un livre développant le concept de Data Mesh.
    Au Data Mesh, il manquait une dimension, celle du "comment". Jean-Georges Perrin a été un des premiers à mettre en application ce concept, chez Paypal. Et parmi les premiers, avec Andrew Jones, à s'intéresser aux supports du Data Mesh, les Data Contracts.
    Au point qu'il a lancé une initiative de standardisation open source des Data Contracts, ODCS (Open Data Contract Standard). Le projet Bitol, hébergé au sein de la fondation Linux, vise à permettre aux entreprises d'échanger, en interne ou en externe, des Data Products sur la base de standards open source. Très intéressant pour les entreprises... un peu moins pour les éditeurs de progiciels, comme nous en débattons dans le podcast.
    Un podcast plus long que d'habitude, 40' environ, mais qui vaut la peine d'être écouté jusqu'au bout ! Ecoutez-le en plusieurs fois si nécessaire.

    Show More Show Less
    43 mins
  • #5.3 Cartographie des données et des systèmes avec David Bougearel de Cartographit
    Oct 20 2024

    Dans cet épisode, nous recevons David Bougearel, fondateur de Cartographit, un nouvel outil de cartographie du système d'information, qui s'appuie sur les normes de cartographie de l'ANSSI. Les différentes couches cartographiées incluent donc les couches des données, des processus et des applications.

    Cela fait-il de Cartographit un outil potentiel de gouvernance des données ?

    Nous abordons ce sujet et différentes questions connexes.

    - La cartographie du Système d'Information (SI) offre une vue d'ensemble, un inventaire global du SI, incluant les données (objets d'information). Cartographit permet non seulement de réaliser cet inventaire des données, mais aussi de les classifier selon leur niveau de sensibilité, de déterminer si elles sont des PII (données personnelles) et de connaître leur DICT. Cela offre ainsi une vision précise et détaillée des données.
    - Cependant, connaître les données est une première étape. Comprendre comment elles sont utilisées et où elles se trouvent ajoute une dimension essentielle. Cartographit permet de relier ces données aux processus métiers (vue fonctionnelle), aux actions techniques (quelles bases de données, quels flux ou quelles applications utilisent ces données) et de localiser physiquement ces données (par exemple : Bâtiment 1, Salle 44, Baie 1.1).
    - Grâce à une interface utilisateur (UI/UX) optimisée et à une navigation cartographique fluide, Cartographit permet de parcourir l'ensemble de son SI et d'explorer le fonctionnement de son entreprise, tant d’un point de vue technique que fonctionnel.

    Show More Show Less
    22 mins
  • #5.2 IA ? Et si nous parlions français !
    Sep 11 2024

    Vous en avez assez d’entendre parler de LLM, de prompt, de text token, ou de adversarial machine learning ? Ça tombe bien, le 6 septembre dernier, le Journal Officiel de la République Française a publié, pour la rentrée des classes, la liste relative au vocabulaire de l’intelligence artificielle. La commission d’enrichissement de la langue française a retenu quatorze termes ; elle les a traduits, et définit.

    Ainsi, vous pourrez parler de Grands Modèles de Langage, les GML ; d’instructions génératives pour les prompts, de jeton textuel pour les text token, et d’apprentissage antagoniste pour l’adversarial machine learning.

    Plus aucune excuse pour truffer vos textes et vos vidéos de ces anglicismes qui ne rendent pas hommage à notre langue. Ça fait plus chic ? C’est plus court ? Tout le monde le dit ? Toutes ces excuses sont valables, mais avec un petit effort, vous verrez que vos textes en ressortiront de meilleure facture. Et ne devenez pas ces directeurs marketing que je rencontre régulièrement et qui commencent leur présentation en s’excusant des mots anglais qu’ils utiliseront… sous prétexte que, vous savez, je vis aux States depuis plusieurs années, et je ne sais plus comment on dit en français.

    Cinq pages du JO du 6 septembre à imprimer donc, et à garder bien visible sur votre bureau.

    Ah tiens d’ailleurs, il y en a un qui manque ! Je n’ai pas trouvé la traduction de RAG, Retrieval Augmented Generation. Il va falloir continuer l’enrichissement du dictionnaire. J’ai trouvé sur Internet une traduction sous forme de Génération Augmentée de Récupération. Pourquoi pas. Qu’en pensez-vous ?

    A tiens, amis québécois qui nous écoutez, vous qui êtes si prompts à défendre la langue française, montrez l’exemple ! Le problème c’est que nous ne sommes pas toujours d’accord sur les traductions… Ainsi l’Office Québécois de la Langue Française recommande d’utiliser le terme de « requête » pour désigner les prompts. Alors requête ou instruction générative ? Qu’en pensez-vous ?

    Show More Show Less
    3 mins
  • #5.1 Le MIT classe 777 risques potentiels liés à l'IA
    Sep 1 2024
    Le MIT a recensé 777 risques potentiels liés à l’IA dans une base de données partagée gratuitement Cet été, le MIT nous a fait un cadeau ! Le prestigieux organisme de recherche américain a publié un référentiel complet des risques liés à l’intelligence artificielle. L’objectif : vous aider à cartographier l’ensemble des risques qui pèsent sur votre entreprise afin de les mesurer, les quantifier et les mitiger par la suite. Si vous suivez mes contenus sur le thème de la gouvernance des données et de l’intelligence artificielle, vous avez déjà été sensibilisé au fait que la mise en place d’un cadre de gouvernance passe par l’identification et la cartographie des risques. Comment en effet atténuer quelque chose que l’on n’a pas référencé et mesuré ? Première tâche donc, l’identification et la cartographie des risques en matière d’intelligence artificielle. Risques liés aux données, aux modèles, aux usages, les risques sont nombreux. Et l’IA Act européen prévoit d’ailleurs l’obligation de les identifier et de les suivre, afin de classifier les modèles d’IA en fonction des risques encourus. Mais partir d’une feuille blanche et se gratter la tête en faisant le tour des bureaux n’est pas la méthode la plus efficace. Or il n’existait pas jusqu’à présent un référentiel unique, mais plusieurs référentiels, tous incomplets, et orientés. Ces derniers mois, les équipes du MIT ont réalisé un travail de compilation et d’organisation de l’ensemble des référentiels qu’ils ont pu identifier ; regroupant l’ensemble des risques dans une taxonomie commune. The AI Risk Repository est donc un travail de synthèse des risques en provenance de 43 taxonomies différentes. Au total, 777 risques ont été identifiés, regroupés et ordonnés dans la taxonomie du MIT. Ce travail de synthèse est fourni sous forme d’un fichier Excel ou Google Sheets. Avec 777 risques décrits, c’est évidemment beaucoup trop pour la très grande majorité des entreprises, et un important travail de compréhension et de sélection reste à faire. Par ailleurs chaque entreprise devra évaluer le degré de survenance de ce risque dans sa propre organisation ; ainsi que les impacts de cette survenance sur son métier. Personne ne peut faire ce travail à votre place. Mais bien sûr, remercions le MIT pour cette synthèse qui permet de partir de quelque chose, d’envisager à peu près tous les cas possibles, et ainsi de progresser dans cette cartographie des risques liés à l’IA. Le framework à déployer est donc le suivant : - Commencez par prendre connaissance de la base de données des risques du MIT ; - Sensibilisez la direction générale à l’importance, et parfois à l’obligation, de connaitre le niveau d’exposition de l’entreprise ; - Programmez des ateliers avec les différentes personnes concernées, métier et informatique, afin de sélectionner dans la base du MIT les risques applicables à l’entreprise ; - N’hésitez pas à vous faire accompagner dans cette phase afin de démarrer correctement ; un consultant spécialisé peut être un booster et un garde-fou ; - Pour chacun de ces risques, évaluez leur probabilité de survenance, et les impacts, financiers et autres, de cette survenance éventuelle ; - Reportez tout cela dans un outil spécialisé de gestion de risques ou à défaut dans une feuille Excel ; - Mettez en place les stratégies de modération de ces risques ; - Ne pas oublier de répéter ce processus, lorsque les risques changent ou au minimum une fois par an, afin de maintenir à jour cette cartographie. Alors je vous entends déjà critiquer ! Jamais je n’aurai le temps de faire cela, la DG ne nous donnera pas de budget, encore un truc qui va rester sur les étagères, bla bla bla… Vous avez raison de vous inquiéter ! Mais en même temps soyons direct, ce n’est pas un choix. Bien sûr, une PME peut choisir de prendre des risques, sans les mesurer, et en assumer par la suite les conséquences. Mais assurez-vous que cette décision de ne pas cartographier les risques liés à l’IA soit bien prise au plus haut niveau. Et un conseil, protégez vos arrières, et conservez bien la trace de cette décision. Et si votre DG est plus raisonnable, et comprend l’importance de connaitre et mesurer ces risques, allez-y progressivement. Posez les premiers jalons, et commencez les ateliers. Tiens, par exemple, commencez par les nouveaux projets ! Un nouveau POC d’IA ? Dès la phase de POC, rapprochez-vous des équipes, abordez le sujet, et cartographiez les risques à la volée. En incluant la gouvernance de l’IA dans la phase de design des projets, le fameux « Governance by ...
    Show More Show Less
    5 mins
  • #4.24 Gagner aux JO, est-ce une question de data ?
    Aug 2 2024

    Vous avez 23 ans, vous mesurez 1 mètre 77, et vous pesez 72 kilos ? Vous avez, contrairement à moi, le profil idéal pour remporter le 100 mètres, épreuve reine de l’athlétisme aux jeux olympiques.

    Si en revanche vous avez plus de 27 ans… désolé, vous êtes déjà disqualifié par l’analyse statistique. Cependant, si vous êtes un peu en surpoids, jusqu’à 108 kilos, vous pouvez tenter le lancer de poids. Les grands triompheront au lancer de disque, quant aux plus petits qu’un mètre soixante… ils n’ont que peu de chance d’obtenir une médaille en athlétisme.

    Non, mesdames, je ne vous oublie pas. Et les statistiques semblent se rejoindre. Si vous avez 22 ans, que vous mesurez 1 mètre 66, et que vous pesez 57 kilos, la médaille du 100 mètres est à votre portée, mathématiquement. Là encore, quelques kilos supplémentaires vous permettront de tenter le lancer de poids. Les plus grandes lanceront le disque tandis que les plus petites triompheront au 10 000 mètres et au marathon.

    Commandité par JeffBet, un site de paris en ligne, l’étude porte sur les données de 222 500 athlètes olympiques, collectées depuis 120 ans. Pour JeffBet, remporter une épreuve dépend certes du courage, de la volonté, de l’entrainement, mais également de caractéristiques purement physiques. Et c’est l’idée de la société de paris en ligne, qui tente de convaincre que l’on peut améliorer ses probabilités de miser sur le gagnant, sans le connaitre, mais en étudiant uniquement ses données.

    Le livre Money Ball de Michael Lewis, publié en 2003, nous contait déjà l’histoire controversé d’un sélectionneur de baseball qui utilisait les données pour compenser le manque de moyens de son équipe, et identifier statistiquement les meilleurs joueurs.

    Alors que vous soyez pro-statistiques, persuadés que le monde est régi par la mathématique et les probabilités ; ou que vous soyez convaincu que les statistiques ne sont en aucun cas déterministes, oubliez un peu les data pendant quelques semaines, passez de bonnes vacances, et retrouvez de nouvelles émissions de votre podcast Decideo dès la rentrée de septembre pour une nouvelle saison, la cinquième !

    Show More Show Less
    3 mins
  • #4.23 Gouvernance des données orientée métier, quelques prérequis
    Jul 9 2024
    Gouvernance des données : quelques prérequis organisationnels Ayant l’opportunité d’accompagner de nombreuses entreprises dans la mise en place d’une gouvernance des données orientée métier, je voudrais partager avec vous aujourd’hui quelques prérequis organisationnels. Eloignés des habituels conseils sur les outils à déployer, je constate que les premiers pas à réaliser, et pas les plus faciles, sont liés aux personnes et à l’organisation. Trois questions ! Qui ? Cela peut paraitre évident, mais dans la réalité, la nomination claire et affirmée de la personne chargée de coordonner la gouvernance des données dans l’entreprise n’est pas toujours une priorité. Or, sans bénéficier de l’onction de la direction générale sur le sujet, la personne en charge rencontra sur sa route toutes les embuches posées ça et là par les personnes qui ne voient pas dans leur intérêt qu’une gouvernance vienne fixer des bonnes pratiques là où ils préfèreraient que personne ne vienne mettre son nez. Donc, la première des choses à faire est de désigner une personne, de lui donner un titre de poste qui reflète cette fonction de mise en place des actions liées à la gouvernance, et de communiquer en interne sur le sujet. Récemment, un client m’expliquait que sa direction générale ne souhaitait pas envoyer un email pour indiquer à tous les employés que cette personne était maintenant en charge de mettre en place une gouvernance des données. Je lui souhaite bonne chance dans sa mission quand même la direction générale ne lui donne pas ses lettres de crédit ! Où ? La position de cette personne dans l’organisation est beaucoup plus importante que son titre. Je peux être nommé Data Governance Manager, mais si je suis au troisième sous-sol de l’organigramme dans une sous-direction, dépendant de la direction informatique… je n’aurai jamais l’oreille du comité de direction pour arbitrer les litiges qui apparaitront ; ni la crédibilité pour imposer aux métiers un code de conduite et des bonnes pratiques qui modifieront leurs habitudes. Les Américains ont choisi de placer la gouvernance des données, et de l’intelligence artificielle, directement au sein du comité de direction, en créant le poste de CIGO — Chief Information Governance Officer. Pas toujours facile dans les pays francophones de réunir le budget, la personne compétente, et la volonté de la direction générale pour créer ce niveau de poste. Du fait de mon expérience, je déconseille toute organisation dans laquelle le responsable de la gouvernance des données serait à plus d’un échelon du comité de direction. Je déconseille également — à quelques rares exceptions près — que la gouvernance des données orientée métier soit rattachée à l’informatique. Si elle ne peut pas être autonome, elle devrait être rattachée à l’audit, à une direction data ou digital. Le plus important est que le supérieur hiérarchique du responsable de la gouvernance puisse directement porter les messages au comité de direction, et obtenir sa validation ou son arbitrage. Là encore, il faut organiser et communiquer clairement en interne sur l’organisation, afin qu’il n’y ait aucune ambiguïté. Comment ? Qu’il s’agisse de la charte de gouvernance des données, du code de conduite de l’IA, de la classification des données sensibles, du catalogue des data products, de l’ontologie d’entreprise… la gouvernance des données passe par la formalisation d’un certain nombre de livrables. Outre ses qualités relationnelles, le responsable de la gouvernance doit faire preuve d’un excellent formalisme. Rédiger, expliquer, illustrer, présenter… est son quotidien. Outre l’indispensable traitement de texte qu’il utilisera quotidiennement, il a besoin d’un outil de diffusion du contenu qu’il produit. Tout sauf des classeurs qui resteront dans une étagère ! Un simple Wiki fera l’affaire, mais il lui permettra de diffuser ses livrables, de recueillir des commentaires, des suggestions, d’échanger avec sa communauté en interne. C’est le premier outil à mettre en œuvre, avant de passer à tout logiciel complexe. Ce portail accueillera son message de nomination, la composition du comité de gouvernance, puis viendront la charte de gouvernance des données, et l’ontologie ou le glossaire métier, en fonction du niveau de profondeur souhaité. Bon courage pour ces premières étapes. Comme elles touchent l’humain et l’organisation, elles sont à la fois indispensables et parfois les plus compliquées à accomplir.
    Show More Show Less
    5 mins
  • #4.22 La donnée sous tous les angles, avec Philippe Charpentier, CTO de NetApp
    Jul 1 2024

    Avec Philippe Charpentier, le CTO de NetApp France, nous abordons le "contenant" des données. Contenant et contenu sont mutuellement indispensables, et ils répondent tous deux à des contraintes différentes :

    - Les data sont enfin reconnues comme des actifs informationnelles de l'entreprise, il faut donc les protéger. Quels sont les enjeux actuels liés à la sécurité et à la confidentialité de ces données collectées par toutes les entreprises ? - Peut-on et doit-on tout conserver ? L'IA semble nous dire que oui, les lois sont un peu moins d'accord. Comment arbitrer ? - Un des éléments clef d'une stratégie data est aujourd'hui la gouvernance, comment s'assurer du cycle de vie et d'utilisation des données. Quid de la traçabilité de ces actifs tant immatériels. - En 2024, sur quoi les entreprises doivent-elles porter leur attention ? Quels conseils leur donner en matière de data ?
    Show More Show Less
    16 mins