Avec l’IA, à quoi ressembleront les logiciels de demain ? 

L’IA sera-t-elle utilisée pour la conception de logiciels artisanaux ou industriels ? Au profit de qui : les startups de l’IA ou les fournisseurs de modèles ?

Hubert Guillaud

« Depuis le début de l’informatique, le logiciel a été quelque chose que les gens consomment, mais ne créent pas. (…) La création de logiciels était l’apanage de professionnels qualifiés comme moi. L’IA est en train de changer la donne. Aujourd’hui, elle devient plus accessible à toute personne ayant un profil proche de la programmation (par exemple, un universitaire qui développe ses propres outils, un créatif qui expérimente avec le code, un expert qui souhaite s’essayer à la création d’une solution). Bientôt, nous serons plus nombreux à pouvoir créer nos propres micro-outils, non pas en tant que programmeurs, mais simplement en tant que personnes ayant des idées ou des problèmes à résoudre. » 

Sur Medium, Fabien Girardin explore la piste de ce qu’il appelle le « logiciel personnel » en passe d’être révolutionné par l’IA. Le logiciel personnel n’est pas un concept nouveau. Ce sont des solutions développées par des individus, comme des petits jeux, des petits outils, issus de la scène indépendante. Par exemple, NetNewsWire, un lecteur de flux RSS pour Mac imaginé par Brent Simmons en 2003 pour quelques amis. A l’aube de l’ère de l’ordinateur personnel, Ivan Illich parlait de convivialité, pour désigner le fait que les individus pouvaient façonner leur propre environnement technologique avec autonomie et créativité. C’est ce qu’incarnent ces micrologiciels personnels. Ils naissent souvent d’une relation personnelle (la demande d’un ami, la frustration d’un collègue…) ou en établit une, à l’image de Rumbo un outil pour transformer les données d’un parcours GPS en animation vidéo que Girardin a développé en 2019 pour un ami. Les logiciels personnels viennent répondre à un besoin immédiat. Ils ne sont pas conçus pour un marché. Ils ne résolvent le plus souvent  qu’un problème spécifique. « Un logiciel personnel est finalisé dès lors qu’il fonctionne pour son créateur. Il n’a pas besoin d’être mis à l’échelle, intégré ou transformé en produit. Ce n’est ni un produit minimum viable en attente d’investisseurs, ni une démonstration de capacités techniques, ni une preuve de concept en attente de validation. Il est prêt lorsqu’il est pertinent. Sa pérennité repose sur une utilisation continue, et non sur une maintenance planifiée ou des versions futures. » Enfin, « un logiciel personnel est conçu pour être utilisé par un groupe spécifique, et non par un ensemble générique d’utilisateurs. Il privilégie la spécificité à l’universalité, l’intimité à l’échelle, l’immédiateté à l’évolutivité. » 

« Le logiciel personnel n’a pas besoin de se transformer. Il peut continuer à s’adapter, ou disparaître lorsque le besoin s’estompe. Mais lorsque des pressions apparaissent, telles que les exigences d’intégration, l’augmentation du nombre d’utilisateurs ou le besoin de contributeurs, il peut migrer vers des modèles spécialisés, commerciaux ou open source. »

« Ce qui caractérise le logiciel personnel, c’est la proximité : il est créé par des personnes qui comprennent le problème plus profondément que la technologie sous-jacente permettant de le résoudre. Pour cette seule raison, il est essentiel d’élargir le cercle des personnes pouvant créer des logiciels. » Et c’est là que le propos de Girardin devient plus politique. 

Il rappelle qu’en 1972, alors que les ordinateurs étaient des mainframes réservées à quelques individus, l’informaticien Alan Kay imaginait les ordinateurs personnels comme des outils que chacun pourrait programmer. Depuis, avec l’avènement de l’ordinateur personnel, de nombreuses approches ont cherché à démocratiser la création de logiciels : langages simplifiés, systèmes WYSIWYG, applications hybrides et macros pour faire augmenter les tableurs, pour n’en citer que quelques-unes. La révolution mobile nous a permis de nous rapprocher de la vision d’Alan Kay. Bien qu’il soit impossible de le quantifier précisément, des dizaines de milliers d’applications sur l’App Store sont créées par une ou deux personnes, généralement pour un public restreint. Par exemple, le romancier Robin Sloan a créé BoopSnoop, une application de messagerie pour sa famille de quatre personnes. Elle permet de prendre des photos et des vidéos, de les envoyer sans modification, et les messages disparaissent après consultation. Pendant des années, elle a conservé quatre utilisateurs actifs quotidiens sans aucun désabonnement, un succès retentissant selon son créateur. L’essai de Sloan sur le projet a popularisé l’expression « logiciel fait maison » : un logiciel conçu comme un repas, pour les personnes que l’on aime, sans obligation de mise à l’échelle. 

L’IA sera-t-elle utilisée pour la conception de logiciels artisanaux ou industriels ? 

En 2023, Andrej Karpathy, cofondateur d’OpenAI, affirmait avec force : « le langage de programmation le plus en vogue est l’anglais ». Cette déclaration a marqué un tournant dans le développement logiciel, permettant aux grands modèles de langage de lier efficacement le langage naturel au code fonctionnel. Les assistants de codage IA et le codage agentiel basés sur les LLM (comme Cursor, Floot, Claude Code, Replit, Agent Builder d’OpenAI…) exploitent de nombreux référentiels de code et de conversations pour générer du code à partir du langage naturel. Ils utilisent également des bibliothèques et des frameworks, open source et propriétaires, pour automatiser la production de logiciels. Et les démonstrations d’utilisation d’agents et de systèmes d’IA complexes fascinent et inspirent les développeurs, à l’image de celle déployée par Boris Cherny, le développeur de Claude, et relatée par VentureBeat

Le développeur Chris Loy qualifie cette évolution d’avènement du logiciel industriel, mais dans un sens finalement assez opposé à la vision que propose Girardin. Pour Loy, avec l’IA, le développement logiciel s’éloigne de l’artisanat qu’il a toujours été, pour adopter des méthodes industrielles, moins onéreuses, plus rapides, indépendantes de l’expertise humaine, même si ces solutions sont largement imparfaites. Le développeur devient un superviseur qui contrôle la qualité du code produit par les systèmes d’IA. Ce qui a pour effet que les barrières à l’entrée diminuent, que la concurrence s’intensifie et que le rythme du changement s’accélère. Cette industrialisation nouvelle facilite la production à grande échelle de produits de faible qualité et à bas coût. Pour Loy, le risque est de produire du « logiciel jetable » : des logiciels créés sans perspective de propriété, de maintenance ou de compréhension à long terme,… comme l’industrialisation de l’agriculture a engendré la malbouffe ultra-transformée. Pour Loy, il est probable que la baisse des coûts de production logiciels entraîne une augmentation de la consommation et de la production. L’IA va faire exploser une production logicielle de basse qualité. Cela ne signifie pas que les produits logiciels sains et durables, maîtrisés, « organiques » vont disparaître… Mais plutôt de savoir quelle sera la place des logiciels écrits par l’homme… « Le logiciel s’industrialise depuis longtemps : grâce aux composants réutilisables (code open source), à ​​la portabilité (conteneurisation, cloud), à la démocratisation (outils low-code/no-code), à ​​l’interopérabilité (normes API, protocoles d’agentification) et à bien d’autres mécanismes ». Nous entrons donc dans une révolution industrielle du logiciel, non pas comme une rupture, mais comme une accélération considérable. « Les écosystèmes logiciels ne font pas exception : chaînes de dépendances, charges de maintenance, failles de sécurité qui s’accumulent à mesure que la production augmente. La dette technique est la pollution du monde numérique, invisible jusqu’à ce qu’elle étouffe les systèmes qui en dépendent. À l’ère de l’automatisation de masse, le problème le plus complexe pourrait bien être la gestion, et non la production. Qui assure la maintenance des logiciels qui n’appartiennent à personne ? » Chris Loy décrivait exactement les inquiétudes qui pointent sous le développement des protocoles d’agentification que j’évoquais dans une récente newsletter de CaféIA.

DIY 2.0 ?

L’émergence des LLM a profondément transformé le paysage logiciel, rappelle également Girardin, et notamment les pratiques des programmeurs professionnels, qui les utilisent largement pour produire du code. Pas seulement. D’innombrables tutoriels en ligne, discussions sur les forums et vidéos YouTube apprennent aux non-professionnels à créer des logiciels avec des modèles à faible code. Par exemple, inspiré par les démonstrations d’OpenAI lors du lancement de GPT-5, le vulgarisateur technologique Azeem Azhar a décrit dans sa newsletter Exponential View comment son équipe, sans connaissances spécialisées, avait créé une application d’apprentissage du coréen. De même, le journaliste technologique Kevin Roose, qui ne programme pas, a créé une alternative à son application de lecture différée préférée en moins de trois heures. Ce phénomène se répète partout sur les réseaux sociaux, constate Girardin. Designers, chefs de produit et universitaires partagent leurs petites applications. Ensemble, ils explorent un vaste champ de nouvelles possibilités, démontrant comment créer des logiciels sans formation formelle. 

Girardin tente de dresser une petite typologie des logiciels personnels, qui vont de simples plug-in, à des petites applications de navigateurs, en passant par des applications spécifiques pour relier deux logiciels entre eux à des assistants en passant par des applications plus complexes. Parmi les exemples que Girardin cite, il distingue notamment Flow, l’outil imaginé par le designer Etienne Mineur, un générateur de création, façonné par la pratique d’une seule personne et les possibilités de l’IA, et non par le marché. « Un outil conçu par une seule personne, qui aurait nécessité une équipe pour être développé il y a quelques années ».

« Contrairement aux modèles commerciaux traditionnels, les logiciels personnels génèrent rarement des revenus directs au-delà de la simple couverture de leurs coûts. Leur valeur réside ailleurs ». Face à des outils trop génériques, trop chers ou trop complexes ou inexistants, ils visent à répondre à des besoins spécifiques, situés, limités. Dans l’esprit du mouvement Do it yourself (DIY), les logiciels personnels ne sont pas là pour être cohérents. Leur succès se mesure plutôt à l’autonomisation des utilisateurs qu’ils permettent. Leur code source a peu de valeur transférable. Certains évoluent vers des formes commerciales ou open source, mais ce n’est certainement pas la majorité. En fait, leur incomplétude, leur bricolage est un atout. « Dans son essai de 1989, Le pire est le mieux, l’informaticien Richard P. Gabriel observait que les systèmes conçus avec une simplicité pratique sont souvent mieux adoptés que les systèmes parfaits et riches en fonctionnalités. L’imperfection ouvre des perspectives : proposer un produit que d’autres savent améliorer est l’un des meilleurs moyens de favoriser la collaboration. » 

Les logiciels personnels sont souvent conçus par une seule personne, pour elle-même, voir quelques proches. Ils n’ont pas à gérer de cas particuliers et peuvent gérer leur imperfection. Alors que les logiciels commerciaux tirent profit d’une base d’utilisateurs, « les logiciels personnels créent de la valeur au sein d’un groupe. La distinction est importante : l’un se développe en acquérant des clients, l’autre se renforce en cultivant des relations. » 

« L’industrie du logiciel mesure le succès à l’aune de l’échelle : nombre d’utilisateurs, chiffre d’affaires, croissance. Cette quête incessante de croissance a engendré des systèmes qui répondent à leur propre logique plutôt qu’aux besoins de leurs utilisateurs. Les outils que nous utilisons quotidiennement sont conçus par des équipes distantes, optimisant leurs performances pour des marchés auxquels nous appartenons. Le logiciel personnel inverse cette relation et les critères de succès : il est construit par les personnes qu’il sert, suffisamment simple pour être compris, suffisamment proche pour être contrôlé, et suffisamment performant pour s’intégrer parfaitement. »

« La barrière à la création de logiciels s’est abaissée, mais elle n’a pas disparu : même avec l’aide de l’IA, les systèmes exigent toujours une certaine aisance avec l’abstraction. Les LLM élargissent le cercle des développeurs, sans pour autant le faire disparaître complètement. Il est plus facile de lancer des projets, mais leur intégration requiert toujours des compétences et une expertise. » Ce que les LLM ne savent pas encore faire. 

Qui l’emportera : les startups de l’IA ou les fournisseurs de modèles ?

The Economist pose le problème sous un autre angle. La plupart des startups de l’IA utilisent les modèles fournis par les géants de l’IA. Mais ces startups pourront-elles survivre à mesure que les géants de la Tech déploient non seulement leurs modèles, mais également des applications et des solutions dédiées ? Et ce alors que les géants de l’IA ont tendance à augmenter les tarifs des services qu’utilisent les startups… Dans le domaine du codage par exemple, Anthropic et OpenAI ont tous deux développé des outils de codage qui rivalisent, avec quelques nuances, avec des solutions comme Cursor. Les startups de l’IA estiment que les entreprises vont avoir besoin d’IA spécialisées, adaptées à leur processus métiers, ce qui leur donnerait un avantage concurrentiel. Pour combien de temps ? 

Pour assurer leur pérennité, les développeurs d’applications expérimentent de nouveaux modèles de revenus. Ils reconnaissent que, contrairement aux précédentes vagues de développement logiciel, plus ils grandissent et plus ils utilisent les LLM, plus leurs coûts marginaux augmentent. Pour compenser cette hausse des coûts, ils ont besoin de nouvelles techniques. L’une d’elles consiste à utiliser une variété de modèles, y compris des modèles open source, afin d’acheminer les requêtes les plus simples vers les serveurs où le traitement est le moins coûteux. Une autre consiste à facturer les clients en fonction des résultats obtenus, plutôt qu’à l’utilisation. Harvey, une solution d’IA pour les cabinets d’avocats, peut se permettre d’opter pour les modèles les plus performants, car les cabinets d’avocats sont prêts à payer pour une précision optimale. De plus, les développeurs d’applications affirment que plus leur activité se prolonge, plus leurs agents accumuleront de données spécialisées, améliorant ainsi leurs performances – un peu comme les voitures autonomes gagnent en fiabilité au fil des kilomètres parcourus. Cela devrait fidéliser davantage les clients et créer un avantage concurrentiel. 

Autrement dit, la perspective de centralisation par les géants de l’IA n’est pas certaine. La faible différence entre les modèles, la facilité avec laquelle les startups qui déploient des solutions spécialisées peuvent passer d’un fournisseur de modèles à un autre (voir en utiliser plusieurs), exposent également les fournisseurs de modèles au risque de banalisation de leurs services généraux. HSBC estime par exemple que d’ici 2030, les géants de l’IA ne pourraient ne détenir que 30% du marché mondial des services informatiques enrichis par l’IA, estimé à 1 300 milliards de dollars. Le reste appartiendrait aux éditeurs de logiciels utilisant leurs plateformes.

Hubert Guillaud

MAJ du 17/03/2026 : Sur Medium, Fabien Girardin continue son exploration en s’intéressant à l’impact des logiciels IA dans les organisations. Désormais, avec ces outils, une entreprise peut permettre à des milliers d’employés de concevoir leurs propres outils. Jusqu’à présent, les organisations n’avaient que deux options pour leurs logiciels : les développer ou les acheter. Désormais, une nouvelle piste est possible : l’autonomie. 

Les services informatiques pilotent depuis longtemps les systèmes informatiques. Peu à peu, leurs missions sont devenues essentielles : garantir la stabilité, la sécurité, la cohérence à grande échelle, standardiser les outils, contrôler les accès et empêcher les activités de s’écarter des systèmes prescrits. Un rôle qui est souvent devenu un espace de conflits. « Il était logique de restreindre l’accès dans un monde où les logiciels étaient difficiles et coûteux à développer, fragiles à maintenir et risqués à improviser. » Pour Girardin, avec les services informatiques, les entreprises ont développé de véritables systèmes immunitaires, qui visent bien plus à protéger des processus établis, au risque d’empêcher les expérimentations de développements de codes autonomes pour des processus spécifiques et limités. C’est tout l’enjeu du développement des logiciels personnels qui se profilent avec le vibe-coding : les entreprises seront-elles capables d’ouvrir des espaces d’expérimentations ? 

Pour Girardin, cet enjeu est bien plus un enjeu de culture que de technologie, permettant de favoriser l’expérimentation que de la limiter. L’enjeu n’est pas seulement que les travailleurs s’adaptent à l’IA, mais que l’organisation toute entière se réorganise. Cela suppose de faire passer les fonctions IT « d’un rôle de contrôle à celui de facilitateur », sans pour autant tomber dans un laisser-faire généralisé

Girardin évoque quelques exemples. Celui d’une agence de design barcelonaise, qui s’est doté d’un directeur créatif IA. Ou celui d’une équipe de 9 juristes chargés de traiter 40 000 demandes clients par an dans une grande banque internationale de 120 000 employés. Dans un édifice de ce type, les demandes d’outillages de l’équipe de juristes ne sont jamais une priorité des équipes techniques. Quand BBVA a décidé d’acheter 3000 licences ChatGPT Entreprise, le résultat a été la création de 20 000 GPT personnalisés. « La plupart étaient des projets expérimentaux, mais 1 500 étaient utilisés chaque semaine dans des domaines tels que les achats, la conformité et la communication. Chacun de ces GPT ne sert qu’un petit nombre d’employés. Ensemble, ils forment un vaste ensemble de logiciels. Mi-2025, BBVA comptait 11 000 licences. Fin 2025, l’entreprise a conclu un accord pour fournir ChatGPT à l’ensemble de ses 120 000 employés. » La petite équipe de juristes a donc pu déployer un GPT pour les assister qui produit des réponses qu’ils peuvent vérifier. 

Sur les 20 000 GPT créés, la plupart ont disparu souligne Fabien Girardin. « Certains ont donné des réponses incorrectes. D’autres ont dupliqué des outils existants. Certains ont été créés avec enthousiasme et n’ont jamais été réutilisés. Il ne s’agit pas d’une mise en garde, mais bien d’un constat. Les logiciels personnels à l’échelle d’une organisation sont, par définition, un moteur d’apprentissage. Leur valeur ne réside certainement pas dans la réussite de chaque outil testé, mais dans le processus de création, de test, d’échec et de révision, et dans les enseignements qu’il apporte aux personnes qui le mettent en œuvre. (…) L’apprentissage est le produit, et non l’outil. » « Un outil qui disparaît après deux semaines indique que le problème qu’il visait a soit été résolu, soit s’est révélé moins urgent qu’il n’y paraissait. »

« Les services informatiques ne peuvent pas couvrir tous les besoins. Lorsque les différents utilisateurs ont des problèmes spécifiques, une équipe centralisée est incapable de répondre à tous. Les services informatiques qui ont appris à gérer la demande ont appris à dire non. Ils standardisent : fournisseurs, outils, processus et attentes. Ils priorisent. C’est rationnel. Mais cela laisse une multitude de besoins spécifiques non satisfaits. » Jusqu’à présent, pour dépasser ces limites, les équipes avaient recours à des outils non autorisés, à des pratiques de contournement, à ce qu’on appelle « l’informatique fantôme » (shadow IT)… qui est toujours perçu (à juste titre souvent) comme un risque de sécurité. La difficulté consiste à savoir si ces contournements relèvent de l’imprudence ou de l’ingéniosité. 

Bien souvent, le blocage est la réponse, sans se poser la question de savoir ce que cette pratique compense ni quel problème elle cherche à résoudre… L’enjeu à venir est peut-être que les entreprises envisagent une troisième possibilité : permettre et autoriser l’intégration de solutions personnelles. C’est-à-dire autoriser les salariés à trouver des solutions à leurs problèmes. « Les systèmes centraux, l’infrastructure de données et les outils critiques nécessitent un contrôle centralisé et des équipes dédiées. Mais les outils de niche, les flux de travail d’équipe et les problèmes contextuels relèvent d’un autre domaine : c’est précisément là que la création distribuée s’épanouit. La question n’est pas de savoir s’il faut centraliser ou démocratiser, mais plutôt de savoir à quel niveau on se situe. » 

Comme dans l’exemple de BBVA, « les logiciels personnels ont atteint une échelle organisationnelle tout en conservant leur dimension humaine », défend Girardin. « Les employés deviennent créateurs, et non plus de simples utilisateurs. La plateforme interne GPT Store de la banque permet aux collaborateurs de partager et d’adapter les outils créés par leurs pairs, diffusant ainsi l’innovation à échelle humaine au sein d’une vaste organisation. » 

Pour cela, rappelle Girardin, il a fallu que la banque autorise et valorise l’expérimentation. Qu’elle valorise une approche pragmatique. Ces outils nécessitent de savoir où ils sont utiles et où ils ne le sont pas. Le but est bien moins de mettre en scène l’innovation que de permettre aux gens de trouver des solutions à leurs problèmes. Pourtant, un nouveau problème se dessine : « comment gouverner des milliers d’outils personnels sans étouffer l’énergie qui les a créés ? »

Gouverner, c’est bien plus qu’imposer des règles ponctuellement, rappelle Girardin en conclusion.  Pour la responsable de l’innovation de BBVA : « Il faut laisser les utilisateurs créer leurs logiciels, puis gouverner ceux qui sont fréquemment utilisés ou qui répondent à un processus pertinent. » Il faut adapter les règles à l’usage des outils. Pour les outils qui interagissent avec des processus importants ou qui sont utilisés par de nombreux utilisateurs, la supervision doit être plus rigoureuse. « La gouvernance doit suivre l’adoption, au lieu de la précéder ».