Année après année, la confusion continue de régner. Pour sa 50eme chronique consacrée à l’intelligence digitale, Imed Boughzala revient sur l’importance de comprendre les nuances derrière les termes utilisés quotidiennement dans les transformations d’entreprise.
Informatique, numérique, digital… quelle différence ? Ce n’est pas la première fois qu’on me pose cette question… Je profite de ma 50ème chronique Alliancy sur l’intelligence digitale pour apporter ces quelques éclaircissements dans une démarche de vulgarisation scientifique. Dans un monde en constante évolution technologique, les termes « informatique », « numérique » et « digital » sont souvent utilisés de manière interchangeable, ce qui peut prêter à confusion. Pourtant, ces notions possèdent des significations distinctes et des champs d’application précis. Cette chronique a pour ambition d’apporter des explications sur ces termes et d’aider à mieux comprendre leurs différences et leur interdépendance.
L’informatique : la science des systèmes de traitement de l’information
Le mot « informatique » est issu de la combinaison des termes « information » et « automatique », désignant ainsi le traitement automatique des données. En 1957, l’ingénieur allemand Karl Steinbuch introduit le terme « Informatik » dans son essai Informatik: Automatische Informationsverarbeitung (Informatique : traitement automatique de l’information). En 1962, le mot « informatique » aurait été utilisé pour la première fois en France par un ancien cadre de Bull pour désigner sa nouvelle entreprise. Puis, en 1966, l’Académie française officialise son usage pour désigner la « science du traitement de l’information », rapidement adopté par la presse, l’industrie et le milieu universitaire.
Dès 1968, l’enseignement de l’informatique se structure :
- En France, l’Institut d’Informatique d’Entreprise (IIE, aujourd’hui ENSIIE) fut créé en juin 1968[1] au sein du CNAM pour délivrer un des premiers diplômes d’ingénieur en informatique (reconnu fort vraisemblablement le premier par la CTI en 1972[2] pour sa première promotion de 25 élèves diplômés en 1971[3] d’informaticiens d’entreprise), à l’instar de l’INSA Lyon (avec son département informatique créé en 1969[4], avec une première promotion accueillie en 1970) et de l’Université de Grenoble (Institut de Mathématiques Appliquées de Grenoble (IMAG) a été fondé en 1960 et est devenu l’ENSIMAG en 1970).
- En Allemagne de l’Ouest, en juillet 1968, le ministre fédéral de la Recherche scientifique, Gerhard Stoltenberg, prononce officiellement le mot Informatik et souligne la nécessité d’enseigner cette nouvelle discipline à l’université.
- En Europe, des termes équivalents apparaissent : informatica en Italie et en Espagne, informatics au Royaume-Uni.
L’informatique (Sciences de l’informatique ou Computer science aux États-Unis) est une discipline scientifique, technique et industrielle qui étudie le traitement automatique de l’information numérique via des programmes informatiques exécutés par des dispositifs électroniques (ordinateurs, systèmes embarqués, robots, automates). Fondée sur des concepts mathématiques, algorithmiques et logiques, elle couvre un large éventail de domaines : développement logiciel, Intelligence artificielle, cybersécurité, réseaux et communication, bases de données et stockage d’information.
On distingue généralement :
- L’informatique théorique (sciences formelles), qui explore les concepts fondamentaux comme la théorie des langages, la complexité algorithmique et les modèles computationnels.
- L’informatique appliquée ou « d’entreprise », qui se concentre sur les applications industrielles : développement de logiciels, architectures informatiques, administration des systèmes. L’informatique de gestion en fait partie en se spécialisant dans les applications liées aux métiers de la gestion des entreprises comme la comptabilité, la finance, l’achat, la logistique ou encore la gestion des stocks.
Un terme polysémique
Dans l’usage contemporain, le terme « informatique » est polysémique. Il désigne à la fois un secteur industriel (lié aux technologies numériques et aux ordinateurs) et une science du traitement algorithmique de l’information. Des expressions spécifiques permettent de lever l’ambiguïté : « science informatique », « informatique fondamentale » ou « informatique théorique » renvoient à la dimension scientifique, tandis que « technologies de l’information » (IT) et « technologies de l’information et de la communication » (TIC) désignent l’industrie et ses produits.
L’informatique repose en grande partie sur les mathématiques appliquées, qui ont permis de nombreuses avancées technologiques. Par exemple, le machine learning, sous-domaine de l’intelligence artificielle, utilise des modèles mathématiques complexes (statistiques, algèbre linéaire, probabilités) pour analyser des données et effectuer des prédictions. Il est aujourd’hui central dans des applications comme la reconnaissance vocale, la vision par ordinateur ou l’interaction numérique. L’informatique est parfois qualifiée de « computing » ou de « calcul scientifique », en référence à son lien historique avec les mathématiques. Ce lien remonte à 1642, lorsque Blaise Pascal invente la première machine à calculer, la Pascaline, dont un exemplaire est conservé au musée des Arts et Métiers. Dès 1961, Marion Créhange (1937 – 2022) soutient une des premières thèses en France dans le domaine de l’informatique autour de la réalisation d’un macro-assembleur et d’un outil de programmation.
Aujourd’hui, l’une des avancées récentes redéfinissant les contours de l’informatique est l’essor des technologies quantiques. L’informatique quantique, fondée sur les principes de la mécanique quantique (superposition, intrication), permet d’effectuer des calculs complexes exponentiellement plus rapidement que les ordinateurs classiques. Ses applications potentielles incluent : Optimisation avancée, Cryptographie post-quantique, Simulation de systèmes physiques et moléculaires.
Bien que toujours en phase de développement, cette discipline promet de révolutionner le traitement de l’information et de repousser les limites actuelles des capacités de calcul, notamment avec l’émergence du Quantum Machine Learning, qui combine l’intelligence artificielle et l’informatique quantique pour accélérer l’apprentissage et le traitement des données complexes. » Historiquement, l’informatique est née du besoin croissant de traiter efficacement de grandes quantités d’informations. Ses applications couvrent un large spectre, des systèmes embarqués dans les objets du quotidien aux infrastructures informatiques complexes (centres de données, supercalculateurs). Aujourd’hui, elle constitue le socle technologique fondamental du monde moderne, influençant tous les secteurs : santé, finance, industrie, communication, défense, recherche scientifique et bien d’autres.
Le numérique : un écosystème d’usage
Le numérique, quant à lui, désigne l’ensemble des technologies et services qui reposent sur la représentation des données sous forme binaire (0 et 1), tout en intégrant, avec l’essor de l’informatique quantique, la notion de qubit, qui permet de superposer ces états pour des capacités de calcul inédites. Il inclut les outils, plateformes et dispositifs qui permettent de créer, diffuser, stocker et exploiter ces données. Le numérique concerne donc un champ beaucoup plus large que l’informatique en elle-même, car il inclut des aspects sociaux, économiques et culturels. Par exemple, l’éducation numérique (i.e. digital literacy) englobe les compétences et les outils permettant d’apprendre et d’enseigner grâce aux technologies modernes. De même, la transformation numérique des entreprises fait référence à l’adoption de processus et de modèles d’affaires basés sur les technologies numériques et les données massives, en intégrant l’expérience utilisateur (User eXpérience dit UX), ainsi que l’exploitation du Big Data à travers l’analyse des données (Data Analytics) pour une gouvernance fondée sur les données, afin d’améliorer leur efficacité et leur compétitivité.
Le digital : une terminologie importée aux multiples usages
Le terme « digital », largement emprunté à l’anglais, est souvent utilisé comme synonyme de « numérique » dans la langue courante, bien qu’il soit initialement lié à la notion de « digit » (chiffre en anglais). Historiquement, il renvoyait aux technologies basées sur la manipulation des données sous forme numérique. Sémantiquement, le terme « digital » provient du latin digitus, signifiant « doigt ». Contrairement à son usage anglophone, il n’a, en français, aucun lien direct avec les chiffres ou la numérisation, mais plutôt avec le fait de compter sur ses doigts. En outre, en français, « digital » possède également une signification anatomo-physiologique, en référence aux doigts (e.g. : tracé digital, empreinte digitale, comput digital)).
Toutefois, les afficheurs digitaux (digital displays), apparus dans les années 1970, ne fonctionnent pas en mode binaire, mais ont néanmoins contribué à l’essor de l’expression « affichage digital ». Aujourd’hui, dans le contexte technologique, le terme « digital » est couramment utilisé pour désigner des concepts tels que le marketing digital, le droit du digital, la stratégie digitale, les plateformes digitales ou encore l’expérience utilisateur digitale. Il met souvent l’accent sur l’aspect expérientiel et interactif des technologies numériques, notamment dans les applications mobiles et les services en ligne. Les technologies digitales s’articulent, selon moi, autour de quatre générations technologiques regroupées sous l’acronyme S.M.A.C. (Social, Mobility, Analytics, and Cloud), suivies par les quatre autres technologies post-digitales regroupées sous D.A.R.Q. (Distributed Ledger, Artificial Intelligence, Extended Reality & Quantum Computing).
Interdépendance et complémentarité
Si ces trois termes possèdent des distinctions claires, ils sont étroitement liés. L’informatique constitue le fondement technologique qui permet le développement d’outils et d’applications numériques. Le numérique, à son tour, englobe les usages sociétaux et économiques de ces technologies, tandis que le digital se concentre souvent sur l’interface et l’interaction entre les technologies et leurs utilisateurs.
Prenons l’exemple des smartphones : leur conception repose sur des avancées en informatique (puces électroniques, algorithmes, systèmes d’exploitation), leur adoption massive relève du numérique (démocratisation des usages, écosystèmes applicatifs) et leur attrait pour les utilisateurs s’explique par des expériences digitales engageantes (interfaces intuitives, services personnalisés).
Différencier pour mieux comprendre l’évolution du monde actuel
Comprendre la différence entre informatique, numérique et digital est essentiel pour appréhender les enjeux de notre époque et participer pleinement à la transformation technologique en cours. L’informatique fournit les bases scientifiques et techniques, le numérique traduit les usages sociétaux, et le digital incarne l’interface entre les humains et ces technologies, illustrant ainsi la co-évolution Homme-Machine. Une meilleure compréhension de ces concepts permet de naviguer avec plus de clarté dans un monde où ces notions se croisent en permanence. Développer une intelligence digitale favorise l’acculturation et l’appropriation de ces transformations, tout en intégrant les enjeux de la transition écologique et de la sobriété numérique.
[1] L’année de la création du langage Forth par Charles MOORE (Langage informatique basé sur l’utilisation de piles de données) et du langage Pascal par Niklaus WIRTH (langage de haut niveau apprécié dans l’enseignement et très largement popularisé par sa version développée par Philippe KAHN : Turbo Pascal de BORLAND)
[2] L’année de la création du langage C par Dennis RITCHIE et de Prolog (PROgrammation en LOGique) par le Français Alain COLMERAURER, un langage dit « descriptif de l’Intelligence Artificielle ».
[3] L’année de la création de l’imprimante matricielle
[4] L’année de la création du langage Unix par Kenneth THOMPSON