Informatique non conventionnelle
From Wikipedia, the free encyclopedia
L'informatique non conventionnelle (ou informatique alternative ou informatique non standard) est une branche de recherche émergente, basée sur le calcul non conventionnel, qui explore des façons de calculer différentes de celles des ordinateurs classiques. Pour traiter l'information, elle utilise des phénomènes physiques, chimiques ou biologiques, comme la lumière, les molécules ou des neurones artificiels. Son but est de dépasser les limites imposées aux ordinateurs traditionnels par l'architecture de von Neumann (qui est le modèle où la mémoire et le processeur partagent le même espace, ce qui crée un goulot d'étranglement dans la circulation des données) et la logique binaire (qui repose sur deux états (0 et 1) généralement utilisés pour représenter et traiter informatiquement l'information, ce qui limite la diversité des calculs possibles par rapport à des logiques plus riches comme le ternaire ou le quantique).
Parmi ces approches non conventionnelles figurent, par exemple, le calcul quantique, l'informatique neuromorphique (qui imite le cerveau), ou encore le calcul sur l'ADN. Ces méthodes pourraient dans le futur permettre des calculs plus rapides et plus économes en énergie, notamment requis par l'Intelligence artificielle.
Le terme calcul non conventionnel, inventé par Cristian S. Calude et John Casti, a été utilisé lors de la première conférence internationale sur les modèles non conventionnels de calcul[1], en 1998[2].
Ses premiers exemples incluent les calculateurs mécaniques et analogiques, utilisés avant l'avènement des ordinateurs électroniques modernes. Dès les années 1950‑1960, ces approches ont été progressivement remplacées par l'informatique numérique, mais elles ont continué à inspirer des recherches alternatives. À partir des années 1980‑1990, de nouvelles pistes se sont développées, comme le calcul quantique, l'informatique neuromorphique et le stockage de données numériques sur ADN qui débouche sur un possible ordinateur à ADN. Aujourd'hui, l'informatique non conventionnelle est un domaine interdisciplinaire, qui explore des méthodes innovantes pour dépasser les limites des architectures classiques et permettre une intelligence artificielle sobre en ressources (électricité, eau, matériaux stratégiques ou rares...).
La théorie générale du calcul informatique ou algorithmique permet une grande variété de méthodes de calcul. C'est une branche de la recherche qui cherche à répondre aux limites des architectures classiques de type von Neumann et de la machine de Turing, et aux besoins de l'intelligence artificielle, en particulier à ses ses besoins exponentiellement croissants en puissance de calcul (FLOPS) et autres ressources. Pour cela, l'informatique non conventionnelle explore des modèles alternatifs fondés sur des phénomènes physiques, chimiques ou biologiques inhabituels, tels que le calcul quantique, l'informatique neuromorphique ou l'ordinateur à ADN..., pour notamment proposer des solutions plus sobres, efficaces et adaptées aux nouveaux défis.
La course technologique aux capacités massives de calcul numérique nécessaires à l'IA semble conduire à des impasses technologiques, économiques et environnementales. En particulier, l'apprentissage profond exige des ressources considérables en énergie, en datacenters et en matériel. Ce constat stimule la recherche d'alternatives telles que le calcul neuromorphique (inspiré du cerveau) et, depuis plusieurs décennies, l'exploitation directe de phénomènes physiques non linéaires sous les appellations de « calcul non conventionnel », « calcul naturel », « calcul physique » ou « in‑materio computing »[3] ;
Modèles alternatifs de calcul
Un « modèle de calcul » décrit comment la sortie d'une fonction mathématique est calculée à partir de ses « entrées ». Il décrit l'organisation des unités (de calcul, de mémoire et de communication)[1],[4]. La complexité algorithmique d'un algorithme de calcul peut être mesurée à partir d'un modèle de calcul, et l'utilisation d'un modèle permet d'étudier les performances des algorithmes indépendamment des variations propres à certaines implémentations et technologies.
Une grande variété de modèles sont couramment utilisés ; certains ressemblent fortement au fonctionnement des ordinateurs conventionnels (idéalisés), tandis que d'autres s'en éloignent. Parmi les modèles couramment utilisés, on trouve la Machine à registres illimités, la machines à accès aléatoire, la Machine de Turing, le lambda-calcul, les systèmes de réécriture, les circuits numériques, les automates cellulaires et les réseaux de Petri, qui permettent chacun, des modes non conventionnels de calculs :
Calcul mécanique

Historiquement, les ordinateurs mécaniques (à cartes perforées) ont été utilisés dans l'industrie avant l'avènement du transistor.
Les calculateurs mécaniques gardent aujourd'hui un intérêt, à la fois pour la recherche et comme outils analogiques. Certains, comme le calculateur à billes de billard, présentent une valeur théorique ou pédagogique (par exemple pour montrer de façon théorique comment fonctionne un calcul), tandis que d'autres, de type hydraulique tels que le MONIAC ou l'intégrateur à eau, ont trouvé des applications pratiques efficaces[5].
Informatique analogique
Un ordinateur analogique utilise des signaux analogiques, c'est-à-dire des grandeurs physiques continues, pour modéliser et résoudre des problèmes. Ces signaux peuvent être de nature électrique, mécanique ou hydraulique. Les ordinateurs analogiques ont été largement utilisés dans les applications scientifiques et industrielles ; ils étaient souvent plus rapides que les ordinateurs numériques de l'époque mais sont devenus obsolètes dans les années 1950-1960 bien qu'encore utilisés dans quelques applications spécifiques (simulateurs de vol, systèmes de contrôle pédagogiques dans les universités...)[6]. Parmi les exemples d'appareils de calcul analogiques, on peut citer les règles à calcul, les nomogrammes et les mécanismes complexes de contrôle de processus et de relais de protection[7]. Le mécanisme d'Anticythère, un dispositif mécanique qui calcule les positions des planètes et de la Lune, et le planimètre, un intégrateur mécanique permettant de calculer l'aire d'une forme 2D quelconque, sont également des exemples de calcul analogique.
Ordinateurs numériques électroniques
Les ordinateurs modernes sont généralement électroniques et dotés d'une architecture de type Von Neumann basée sur l'électronique numérique, avec une intégration poussée rendue possible par l'invention du transistor et la mise à l'échelle de la loi de Moore.
Le calcul non conventionnel est, selon le site web du Centre d'études non linéaires (2007) « un domaine de recherche interdisciplinaire dont l'objectif principal est d'enrichir ou de dépasser les modèles standards, tels que l' architecture de l'ordinateur de Von Neumann et la machine de Turing, qui ont dominé l'informatique pendant plus d'un demi-siècle ». Ces méthodes modélisent leurs opérations de calcul à partir de paradigmes non standards et sont actuellement pour la plupart au stade de la recherche et du développement.
Ce comportement informatique peut être « simulé » en utilisant des microtransistors classiques à base de silicium ou des technologies informatiques à semi-conducteurs.
Approches génériques
Quelques exemples, contre-intuitifs et pédagogiques, montrent qu'un ordinateur peut être fabriqué à partir de presque n'importe quoi :
Objets physiques

Un ordinateur à billes de billard est un type d'ordinateur mécanique qui utilise le mouvement de billes de billard sphériques pour effectuer des calculs. Dans ce modèle, les fils d'un circuit booléen sont représentés par les trajectoires des billes ; la présence ou l'absence d'une bille sur une trajectoire code le signal sur ce fil, et les portes logiques sont simulées par les collisions des billes aux points d'intersection de leurs trajectoires.
Un « ordinateur à dominos » est un ordinateur mécanique qui utilise des dominos disposés verticalement pour représenter l'amplification ou le traitement logique de signaux numériques. Ces constructions peuvent servir à illustrer des concepts numériques et même à construire des modules de traitement de l'information simples[8],[9].
Calcul par réservoir
Le calcul par réservoir est un cadre de calcul issu de la théorie des réseaux de neurones récurrents. Il consiste à projeter des signaux d'entrée dans des espaces de calcul de dimension supérieure grâce à la dynamique d'un système non linéaire fixe appelé réservoir. Ce réservoir, virtuel ou physique, est constitué d'unités non linéaires individuelles interconnectées par des boucles récurrentes, ce qui lui permet de stocker des informations. L'apprentissage n'est effectué qu'à la phase de lecture, la dynamique du réservoir étant fixe. Ce cadre permet l'utilisation de systèmes naturels, classiques et quantiques, afin de réduire le coût de calcul effectif. Le calcul par réservoir a pour intérêt la simplicité et la rapidité de son algorithme d'apprentissage, ainsi que dans sa possibilité d'implémentation matérielle via des réservoirs physiques[10],[11].
Informatique tangible

L'informatique tangible utilise des objets physiques comme interfaces avec des utilisateurs. Ces « interfaces utilisateur » tangibles (ou TUI pour Tangible user interfaces) donnent une forme physique à l'information numérique, permettant de la manipuler directement via des objets matériels. Cette approche exploite la propension humaine à saisir et manipuler des objets physiques pour faciliter la collaboration, l'apprentissage et la conception (design). Les caractéristiques de ces interfaces tangibles incluent le couplage de représentations physiques aux informations numériques sous-jacentes et l'intégration de mécanismes de contrôle interactif[12],[13],[14]. Cinq propriétés définissent les interfaces utilisateur tangibles : la capacité de multiplexer les entrées et les sorties dans l'espace, l'accès et la manipulation simultanés des composants de l'interface, des dispositifs spécifiques performants, des dispositifs informatiques prenant en compte l'espace et la reconfiguration spatiale des dispositifs[15].
Calcul humain
Le terme « calculateur humain » désigne les individus qui effectuent des calculs mathématiques manuellement, souvent en équipe et selon des règles établies. Autrefois, des équipes étaient employées pour réaliser des calculs longs et fastidieux, et le travail était divisé pour être effectué en parallèle. Cette expression désigne aussi des individus dotés de capacités exceptionnelles en calcul mental, aussi appelés calculateurs mentaux[16].
Interaction humain-robot

L'interaction humain-robot (IHR) étudie les interactions entre les humains et les robots. Elle fait appel à des domaines tels que l'intelligence artificielle, la robotique et la psychologie. Les cobots, ou robots collaboratifs, sont conçus pour interagir directement avec les humains dans des espaces partagés et peuvent être utilisés pour diverses tâches, notamment la fourniture d'informations, la logistique et les tâches non ergonomiques en milieu industriel[17].
Informatique en essaim
La robotique en essaim est un domaine d'étude qui se concentre sur la coordination et le contrôle de plusieurs robots au sein d'un système. Elle s'inspire de comportements émergents observés chez les insectes sociaux, et à partir de quelques règles individuelles relativement simples pour produire des comportements de groupe complexes grâce à la communication locale et à l'interaction avec l'environnement[18]. Cette approche se caractérise par l'utilisation d'un grand nombre de robots simples et favorise l'évolutivité grâce à l'emploi de méthodes de communication locale telles que les radiofréquences ou l'infrarouge.
Approches physiques
Calcul optique

L'informatique optique est un type d'informatique qui utilise les ondes lumineuses, souvent produites par des lasers ou des sources incohérentes, pour le traitement, le stockage et la communication des données. Elle offre potentiellement une bande passante supérieure à celle des ordinateurs traditionnels, qui utilisent des électrons, mais les dispositifs optoélectroniques peuvent consommer une quantité importante d'énergie lors de la conversion de l'énergie électronique en photons et inversement. Les ordinateurs « tout optiques » visent à éliminer ces conversions, pour une meilleure sobriété énergétique[19]. Parmi les applications de l'informatique optique, on peut citer le radar à synthèse d'ouverture et les corrélateurs optiques, qui peuvent être utilisés pour la détection, le suivi et la classification d'objets[20],[21].
Spintronique
La spintronique est un domaine d'étude qui exploite le spin et le moment magnétique intrinsèques des électrons dans les dispositifs à semi-conducteurs. Elle se distingue de l'électronique traditionnelle par l'utilisation du spin des électrons comme degré de liberté supplémentaire, offrant des applications potentielles dans le stockage[22] et le transfert de données[23],[24] ainsi que dans l'informatique quantique et neuromorphique. Les systèmes spintroniques sont souvent réalisés à partir de semi-conducteurs magnétiques dilués et d'alliages de Heusler.
Atomtronique
L'atomtronique est une forme d'informatique qui utilise des atomes ultra-froids dans des circuits d'ondes de matière cohérents, dont les composants peuvent être similaires à ceux des systèmes électroniques ou optiques[25],[26]. Ces circuits ont des applications possible dans plusieurs domaines, dont dans la recherche en physique fondamentale et le développement de dispositifs pratiques tels que les capteurs et les ordinateurs quantiques.
Fluidique

La fluidique, ou logique fluidique, utilise la dynamique des fluides pour réaliser des opérations analogiques ou numériques dans des environnements où l'électronique peut être instable, notamment en présence de fortes interférences électromagnétiques ou de rayonnements ionisants. Les dispositifs fluidiques fonctionnent sans pièces mobiles et peuvent recourir à une amplification non linéaire, similaire à celle des transistors en logique numérique. La fluidique est également utilisée en nanotechnologie et dans le domaine militaire.
Informatique quantique
L'informatique quantique, sans doute la méthode de calcul non conventionnelle la plus connue et la plus développée, est un type de calcul qui exploite les principes de la mécanique quantique, tels que la superposition et l'intrication, pour effectuer des calculs[27],[28]. L'ordinateurs quantiques utilise des qubits, analogues aux bits classiques mais pouvant exister simultanément dans plusieurs états, pour réaliser des opérations. Les ordinateurs quantiques actuels ne surpassent pas encore les ordinateurs classiques dans les applications pratiques, mais ils pourront résoudre certains problèmes de calcul, comme la factorisation d'entiers, beaucoup plus rapidement, à condition que plusieurs défis soient relevés (maintient des états quantiques des qubits et nécessité de corriger les erreurs[29],[30].
La théorie de la complexité quantique étudie la difficulté et complexité computationnelles des problèmes pour les ordinateurs quantiques. Cette branche de l'informatique théorique analyse la difficulté des problèmes lorsqu'ils sont résolus par des ordinateurs quantiques. Elle définit des classes de complexité propres au calcul quantique, comme BQP (Bounded-Error Quantum Polynomial Time), qui regroupe les problèmes résolubles efficacement par un algorithme quantique avec une probabilité d'erreur bornée. permet de comparer la puissance des ordinateurs quantiques à celle des ordinateurs classiques et d'identifier les problèmes où le calcul quantique offre un avantage significatif, par exemple la factorisation d'entiers ou la recherche dans des bases de données.
Informatique quantique neuromorphique

L'informatique quantique neuromorphique (abrégée en « informatique quantique neuromorphique ») est un type d'informatique non conventionnel qui utilise l'informatique neuromorphique pour effectuer des opérations quantiques. Il a été suggéré que les algorithmes quantiques, c'est-à-dire les algorithmes qui s'exécutent sur un modèle réaliste de calcul quantique, peuvent être calculés avec la même efficacité grâce à l'informatique quantique neuromorphique[31],[32],[33].
L'informatique quantique traditionnelle et l'informatique quantique neuromorphique sont deux approches de calcul non conventionnelles, basées sur la physique, qui ne suivent pas l' architecture de von Neumann. Elles construisent toutes deux un système (un circuit) représentant le problème physique considéré, puis exploitent les propriétés physiques respectives de ce système pour rechercher le « minimum ». L'informatique quantique neuromorphique et l'informatique quantique partagent des propriétés physiques similaires lors du calcul[34].
Informatique supraconductrice
L'informatique supraconductrice est une forme d'informatique qui utilise des matériaux supraconducteurs, capables de transporter l'électricité sans aucune résistance. Grâce à cette propriété, et à une vitesse de commutation très élevée, elle permet de traiter et de transmettre des données de manière extrêmement rapide. Cette technologie, souvent employée dans le domaine du calcul quantique, ne fonctionne toutefois qu'à des températures très basses, proches du zéro absolu, ce qui nécessite un refroidissement cryogénique.
Systèmes microélectromécaniques
Les systèmes microélectromécaniques (MEMS) et les systèmes nanoélectromécaniques (NEMS) sont des technologies utilisant des dispositifs microscopiques à pièces mobiles, dont la taille varie du micromètre au nanomètre, généralement composés d'une unité centrale de traitement (comme un circuit intégré) et de plusieurs composants interagissant avec leur environnement, tels que des capteurs[1]. Les technologies MEMS et NEMS se distinguent des nanotechnologies moléculaires ou de l'électronique moléculaire par la prise en compte de facteurs tels que la chimie de surface et les effets de l'électromagnétisme ambiant et de la dynamique des fluides. Parmi les applications de ces technologies figurent les accéléromètres et les capteurs de détection de substances chimiques[35].
Approches chimiques

Calcul moléculaire
L'informatique moléculaire est une forme d'informatique non conventionnelle utilisant les réactions chimiques pour effectuer des calculs. Les données sont représentées par des variations de concentrations chimiques[36], et l'objectif de ce type d'informatique est d'utiliser les plus petites structures stables, telles que les molécules individuelles, comme composants électroniques. Ce domaine, également connu sous le nom d'informatique chimique ou d'informatique réaction-diffusion, se distingue des domaines connexes des polymères conducteurs et de l'électronique organique, qui utilisent les molécules pour modifier les propriétés macroscopiques des matériaux.
Approches biochimiques
Calcul peptidique
Ce modèle informatique utilise des peptides et des anticorps pour résoudre des problèmes NP-complets et dont l'universalité informatique a été démontrée.
Il offre des avantages par rapport au calcul ADN, tels qu'un plus grand nombre d'éléments constitutifs et des interactions plus flexibles, mais n'a pas encore été mis en œuvre concrètement en raison de la disponibilité limitée d'anticorps monoclonaux spécifiques[37],[38].
Calcul sur ADN

.
Le calcul sur ADN (DNA computing) est une branche émergente de l'informatique non conventionnelle qui utilise l'ADN, la biochimie et la biologie moléculaire comme support matériel, au lieu des circuits électroniques traditionnels. Bien que le calcul ADN n'apporte aucune nouvelle capacité en termes de théorie de la calculabilité, qu'il soit lent et que l'analyse de ses résultats soit plus complexe qu'avec les ordinateurs numériques, il permet un calcul massivement parallèle, capable de résoudre certains problèmes spécifiques plus efficacement que les ordinateurs électroniques traditionnels.
Ouvert en 1994 avec la démonstration d'un calcul par Len Adleman, ce champ s'est depuis élargi, par exemple vers le développement de technologies de stockage de données numériques sur ADN, l'imagerie à l'échelle nanométrique, ou encore la conception de contrôleurs et de réseaux de réactions synthétiques. Les circuits de calcul basés sur l'ADN sont des réseaux de réactions chimiques et biochimique capables de traiter de l'information grâce aux interactions entre molécules d'ADN. Leur fonctionnement parallèle et leur compatibilité avec le vivant permettent d'envisager des applications biomédicales, comme l'imagerie cellulaire, le diagnostic ou certaines thérapies voire de futurs ordinateurs semi-biologiques. Ces circuits peuvent être construits à partir d'unités de calcul simples (interrupteurs, portes logiques, amplificateurs, neurones) et assemblés par différentes méthodes, en 3D potentiellement, notamment la diffusion ou l'utilisation de nanostructures d'ADN. La recherche actuelle s'intéresse à la manière de contrôler leur dynamique dans le temps et à leur intégration dans des systèmes biologiques, mais de nombreux défis sont à relever pour produire des applications médicales ou informatiques concrètes[39]. En particulier, il faut pouvoir créer des codes ADN fiables, ce qui pose des problèmes d'optimisation combinatoire, pour générer des séquences de haute qualité respectant des contraintes de distance, de thermodynamique, de « structure secondaire »[40] et de séquence, ce qui implique de mobiliser des modèles mathématiques ad hoc, la théorie du comptage, les approches par gabarits, les algorithmes évolutionnaires multi‑objectifs (inspirés de la théorie de l'évolution) et l'énumération implicite[41].
Les organoïdes neuronaux sont des cultures in vitro de tissus cérébraux comprenant divers types de neurones, synapses et gaines de myéline, déjà expérimentalement testés comme supports biologiques possibles à l'informatique non conventionnelle, voire à l'intelligence artificielle (deux disciplines associées dans une branche émergente de la recherche dite Intelligence organoïde. Ces modèles vivants neuronaux sont ici utilisés comme support capable de s'auto‑organiser, d'apprendre, de mémoriser et de s'adapter, en reproduisant certaines caractéristiques du cerveau en développement. Cela soulève des enjeux complexes (éthiques notamment liés à la question d'une possible émergence de conscience, d'émotions et de cognition. Des enjeux de contrôle et de sécurité ; et de gouvernance scientifique existent aussi[42],[43],[44].
Le calcul sur membrane

Le « calcul membranaire » est l'une des branches de l'informatique non conventionnelle, qui étudie les modèles de calcul distribué et parallèle inspirés de la structure et de la fonction des membranes biologiques[45].
Ici, des objets tels que des symboles ou des chaînes de caractères sont traités au sein de compartiments délimités par des membranes, et la communication entre ces compartiments et avec l'environnement extérieur joue un rôle crucial dans le calcul. Les systèmes P sont hiérarchiques et peuvent être représentés graphiquement, avec des règles régissant la production, la consommation et le déplacement des objets à l'intérieur et entre les régions. Ces systèmes sont en grande partie théoriques, mais leur potentiel est démontré pour résoudre des problèmes NP-complets et ils ont été proposés comme implémentations matérielles pour le calcul non conventionnel.
Approches biologiques
L'informatique biologique, également appelée informatique bio-inspirée ou calcul naturel, étudie l'utilisation de modèles inspirés du vivant pour résoudre des problèmes informatiques, notamment dans les domaines de l'intelligence artificielle et de l'apprentissage automatique. Elle englobe divers paradigmes de calcul, tels que les réseaux de neurones artificiels, les algorithmes évolutionnaires, l'intelligence collective, les systèmes immunitaires artificiels, etc., qui peuvent être implémentés à l'aide de matériel électronique traditionnel ou de supports physiques alternatifs, comme les biomolécules ou les dispositifs d'informatique quantique à ions piégés. Elle inclut également l'étude de la compréhension des systèmes biologiques par l'ingénierie d'organismes semi-synthétiques et la conception des processus naturels comme des processus de traitement de l'information. Le concept de l'univers lui-même comme mécanisme de calcul a également été proposé.
Neuroscience
L'informatique neuromorphique utilise des circuits électroniques en cherchant à imiter les architectures neurobiologiques du cerveau humain, pour créer des systèmes neuronaux artificiels inspirés des systèmes biologiques. Ces systèmes peuvent être implémentés à l'aide de divers composants matériels, tels que des memristors[46], des mémoires spintroniques et des transistors[47] et peuvent être entraînés grâce à différentes approches logicielles, notamment la rétropropagation de l'erreur et les règles d'apprentissage canoniques.
Le domaine de l'ingénierie neuromorphique cherche à comprendre comment la conception et la structure des systèmes neuronaux artificiels influencent leurs capacités de calcul, la représentation de l'information, leur adaptabilité et leur fonctionnement global, avec pour objectif ultime la création de systèmes présentant des propriétés similaires à celles des systèmes naturels.
Les ordinateurs « humides », composés de neurones vivants, constituent une forme conceptuelle d'informatique neuromorphique qui a été explorée à travers quelques prototypes[48]. La microscopie électronique a déjà permis d'imager des diagrammes de connexion neuronale anatomiques à haute résolution[2] et l'enregistrement intracellulaire à grande échelle sur puce semi-conductrice peut générer des cartes de connexion neuronale physique qui spécifient les types et les forces de connexion ; ces technologies d'imagerie et d'enregistrement peuvent éclairer la conception du système neuromorphique.
Automates cellulaires et calcul amorphe

Les automates cellulaires sont des modèles discrets de calcul constitués d'une grille de cellules dans un nombre fini d'états, tels que activé et désactivé. L'état de chaque cellule est déterminé par une règle fixe basée sur les états de la cellule et de ses voisines. Il existe quatre grandes classifications d'automates cellulaires, allant des motifs qui se stabilisent vers l'homogénéité à ceux qui deviennent extrêmement complexes et potentiellement Turing-complets. Le calcul amorphe désigne l'étude des systèmes informatiques utilisant un grand nombre de processeurs parallèles aux capacités de calcul limitées et aux interactions locales, indépendamment du substrat physique. On trouve des exemples de calcul amorphe naturel en biologie du développement, en biologie moléculaire, dans les réseaux de neurones et en génie chimique. L'objectif du calcul amorphe est de comprendre et de concevoir de nouveaux systèmes en caractérisant les algorithmes amorphes comme des abstractions.
Calcul évolutionnaire
Le calcul évolutionnaire est une forme d'intelligence artificielle et d'informatique douce qui utilise des algorithmes inspirés de la théorie de l'évolution biologique pour trouver des solutions optimales à une grande variété de problèmes.
Il consiste à générer un ensemble initial de solutions candidates, à éliminer de manière stochastique les solutions les moins performantes et à introduire de petites modifications aléatoires pour créer une nouvelle génération. La population de solutions est soumise à la sélection naturelle ou artificielle et à la mutation, ce qui entraîne une évolution vers une meilleure adaptation selon la fonction d'évaluation choisie. Le calcul évolutionnaire a démontré son efficacité dans divers contextes et trouve des applications aussi bien en informatique qu'en biologie évolutive.