Computational Intelligence

Gebiet der künstlichen Intelligenz From Wikipedia, the free encyclopedia

In der Informatik bezieht sich Computational Intelligence (CI) auf Konzepte, Paradigmen, Algorithmen und Implementierungen von Systemen, die darauf ausgelegt sind, in komplexen und sich verändernden Umgebungen „intelligentes“ menschliches Verhalten nachzuahmen.[1.1] Diese Systeme zielen darauf ab, komplexe Aufgaben in einer Vielzahl von technischen oder kommerziellen Bereichen zu bewältigen und bieten Lösungen, die unter anderem Muster erkennen und interpretieren, Prozesse steuern, Entscheidungsfindungen unterstützen oder Fahrzeuge oder Roboter in unbekannten Umgebungen autonom manövrieren.[1.2] Die Konzepte und Paradigmen zeichnen sich durch die Fähigkeit aus, zu lernen oder sich an neue Situationen anzupassen, zu verallgemeinern, zu abstrahieren, zu entdecken und zu assoziieren.[2.1] Naturanaloge oder von der Natur inspirierte Methoden spielen dabei eine Schlüsselrolle.[1.1]

CI-Ansätze befassen sich in erster Linie mit komplexen Problemen der realen Welt, für die mathematische oder traditionelle Modellierung aus verschiedenen Gründen nicht geeignet ist: Die Prozesse lassen sich mit vollständigem Wissen nicht genau beschreiben, sie sind für mathematische Herangehensweisen zu komplex, sie beinhalten gewisse Unsicherheiten während des Prozesses, wie beispielsweise unvorhergesehene Veränderungen in der Umgebung oder im Prozess selbst, oder die Prozesse sind einfach stochastischer Natur. Daher sind CI-Techniken in der Regel auf Prozesse ausgerichtet, die unzureichend definiert, komplex, nichtlinear, zeitabhängig und/oder stochastisch sind.[3.1]

Eine Definition der IEEE Computational Intelligence Society von 2025 beschreibt CI als die Theorie, das Design, die Anwendung und die Entwicklung von biologisch und linguistisch motivierten Berechnungsparadigmen. Traditionell sind die drei Hauptsäulen der CI neuronale Netze, Fuzzy-Systeme und evolutionäre Algorithmen (Evolutionary Computation). ... CI ist ein sich weiterentwickelndes Gebiet und umfasst derzeit neben den drei Hauptkomponenten auch Berechnungsparadigmen wie ambient intelligence, künstliches Leben, cultural learning, artificila endokrine networks, social reasoning und artificial hormone networks. ... In den letzten Jahren gab es eine explosionsartige Zunahme der Forschung im Bereich Deep Learning, insbesondere im Bereich der deep convolutional neural networks. Heutzutage ist Deep Learning zur Kernmethode der künstlichen Intelligenz geworden. Tatsächlich basieren einige der erfolgreichsten KI-Systeme auf CI.[4] (Übersetzt mit DeepL.com)

Die allgemeinen Anforderungen für die Entwicklung eines „intelligenten Systems“ sind letztlich immer dieselben, nämlich die Simulation und Nachahmung intelligenten menschlichen Denkens und Handelns in einem bestimmten Anwendungsbereich. Dazu muss das Wissen über diesen Bereich in einem Modell dargestellt werden, damit es verarbeitet werden kann. Die Qualität des resultierenden Systems hängt weitgehend davon ab, wie gut das Modell nach der Entwicklungs- oder Lernphase die relevanten Aspekte der Realität abbildet. Manchmal eignen sich datengesteuerte Methoden, um ein gutes Modell zu finden, und manchmal liefern logikbasierte Wissensrepräsentationen bessere Ergebnisse. In realen Anwendungen kommen in der Regel hybride Modelle zum Einsatz.[1.2]

Da es sich bei CI um ein aufstrebendes und sich entwickelndes Gebiet handelt, gibt es keine endgültige Definition von CI,[3.2][5][6] insbesondere hinsichtlich der Liste der dazugehörigen Konzepte und Paradigmen.[2.1][7][8] Ausgehend von aktuellen Lehrbüchern können die folgenden Methoden und Paradigmen, die sich weitgehend ergänzen,[9.1] als Bestandteile von CI betrachtet werden:

Verhältnis von CI zu künstlicher Intelligenz und Bezüge zum Hard- und Soft-Computing

Künstliche Intelligenz (KI) wird spätestens seit dem Ende 2022 einsetzenden Boom um ChatGPT und verwandte Tools in den Medien, aber auch von einem Teil der damit befassten Wissenschaftler als eine Art Oberbegriff für die unterschiedlichsten Techniken verwendet, die mit KI oder mit CI in Verbindung stehen. Die Beziehung zwischen CI und KI ist seit der Entwicklung von CI ein häufig diskutiertes Thema. Die meisten KI-/CI-Forscher, die sich mit diesem Thema beschäftigen, betrachten sie als unterschiedliche Bereiche, wobei entweder

  • die CI eine Alternative zur KI ist,
  • die KI die CI einschließt, oder aber
  • die CI die KI einschließt.[5][6]
Eine mögliche Sichtweise der Beziehung zwischen Hard Computing und Künstlicher Intelligenz einerseits und Soft Computing und Computational Intelligence andererseits.[3.2] Die EC beinhaltet im Wesentlichen die verschiedenen evolutionären Algorithmen.

Die Sichtweise des ersten der drei Punkte geht auf Zadeh zurück, dem Begründer der Fuzzy-Set-Theorie, der maschinelle Intelligenz in Hard- und Soft-Computing-Techniken unterschied, die einerseits in der KI und andererseits in der CI zum Einsatz kommen.[14][15] Im Hard Computing (HC) und in der traditionellen KI[8][11.2] (z. B. Expertensysteme) sind Ungenauigkeit und Unsicherheit unerwünschte Eigenschaften eines Systems, während sich Soft Computing (SC) und damit CI auf den Umgang mit diesen Eigenschaften konzentrieren.[12.1][16] Die nebenstehende Abbildung veranschaulicht diese Sichtweise und listet die wichtigsten CI-Techniken auf. Ein weiteres häufig genanntes Unterscheidungsmerkmal ist die Darstellung von Informationen in symbolischer Form in der KI und in subsymbolischer Form in CI-Techniken.[1.4][11.2]

Hard Computing ist eine konventionelle Berechnungsmethode, die auf den Prinzipien der Determiniertheit und Genauigkeit basiert. Sie erfordert ein genau definiertes analytisches Modell der zu verarbeitenden Aufgabe und ein vorab geschriebenes Programm, d. h. einen festen Satz von Anweisungen. Die verwendeten Modelle basieren auf der Booleschen Logik, bei der beispielsweise ein Element entweder Mitglied einer Menge ist oder nicht, und es gibt nichts dazwischen. Bei der Anwendung auf reale Aufgaben führen HC-basierte Systeme zu konkreten Steuerungsmaßnahmen, die durch das zu Grunde liegende Modell oder den Algorithmus definiert sind. Bei Eintritt einer unvorhergesehene Situation, die nicht in dem verwendeten Modell oder Algorithmus enthalten ist, schlägt die Maßnahme höchstwahrscheinlich fehl.[17][18][19]

Soft Computing hingegen basiert auf der Tatsache, dass der menschliche Verstand in der Lage ist, Informationen zu speichern und zielorientiert zu verarbeiten, auch wenn die Daten ungenau sind und keine Eindeutigkeit aufweisen.[15] Die meisten SC-Techniken basieren auf einem Modell des menschlichen Gehirns mit probabilistischem Denken, Fuzzy-Logik und mehrwertiger Logik. Soft Computing kann eine Fülle von Daten verarbeiten und eine große Anzahl von Berechnungen, die möglicherweise nicht exakt sind, parallel durchführen. Bei schwierigen Problemen, für die keine zufriedenstellenden exakten Lösungen auf der Grundlage von HC verfügbar sind, können SC-Methoden erfolgreich angewendet werden. SC-Methoden sind in der Regel stochastischer Natur, d. h. sie arbeiten mit zufällig definierten Prozessen, die statistisch, aber nicht präzise analysiert werden können. Bislang können die Ergebnisse einiger CI-Methoden, wie z. B. Deep Learning, nicht verifiziert werden, und es ist auch nicht klar, worauf genau sie basieren. Dieses Problem stellt eine wichtige wissenschaftliche Frage für die Zukunft dar.[17][18][19]

KI und CI sind eingängige Begriffe,[5] aber sie sind sich auch so ähnlich, dass sie leicht verwechselt werden können. Die Bedeutung beider Begriffe hat sich über einen langen Zeitraum hinweg entwickelt und verändert,[20][2.3] wobei KI zuerst verwendet wurde.[2.1][7] Bezdek beschreibt dies eindrucksvoll und kommt zu dem Schluss, dass solche Schlagworte häufig von der Wissenschaftsgemeinschaft, dem Wissenschaftsmanagement und dem (Wissenschafts-)Journalismus verwendet und gehypt werden.[5] Nicht zuletzt, weil KI und biologische Intelligenz mit Emotionen besetzte Begriffe sind[2.1][5] und es nach wie vor schwierig ist, eine allgemein akzeptierte Definition für den Grundbegriff Intelligenz zu finden.[2.1][3.1][8]

Geschichte

Im Jahr 1950 entwickelte Alan Turing, einer der Gründerväter der Informatik, einen Test für Computerintelligenz, der als Turing-Test bekannt ist.[21] Bei diesem Test kann eine Person über eine Tastatur und einen Monitor Fragen stellen, ohne zu wissen, ob ihr Gegenüber ein Mensch oder eine Maschine ist. Ein Computer gilt als intelligent, wenn der Fragesteller den Computer nicht von einem Menschen unterscheiden kann. Dies veranschaulicht die Diskussion über intelligente Computer zu Beginn des Computerzeitalters.

Der Begriff Computational Intelligence wurde erstmals 1985 als Titel der gleichnamigen Fachzeitschrift verwendet[22][20] und später vom IEEE Neural Networks Council (NNC) aufgegriffen, der 1989 von einer Gruppe von Forschern gegründet wurde, die sich für die Entwicklung biologischer und künstlicher neuronaler Netze interessierten. Am 21. November 2001 wurde der NNC zur IEEE Neural Networks Society und zwei Jahre später zur IEEE Computational Intelligence Society, indem neue Interessengebiete wie Fuzzy-Systeme und evolutionäre Algorithmen mit einbezogen wurden.[23]

Das NNC half 1994 bei der Organisation des ersten IEEE World Congress on Computational Intelligence in Orlando, Florida.[23] Auf dieser Konferenz wurde von Bezdek die erste brauchbare Definition von Computational Intelligence vorgestellt: Ein System ist "computationally intelligent", wenn es: nur mit numerischen (Low-Level-)Daten arbeitet, über Komponenten zur Mustererkennung verfügt, kein Wissen im Sinne der (traditionellen) KI nutzt und darüber hinaus (1) rechnerische Anpassungsfähigkeit, (2) rechnerische Fehlertoleranz, (3) eine Geschwindigkeit, die der menschlichen Arbeitsgeschwindigkeit nahekommt, und (4) Fehlerquoten, die der menschlichen Leistungsfähigkeit nahekommen, aufweist oder aufzuweisen beginnt.[24] (Übersetzung basiert auf DeepL.com)

Heute, mit maschinellem Lernen und insbesondere Deep Learning, das eine Vielzahl von überwachten, unüberwachten und bestärkenden Lernansätzen nutzt, hat sich die CI-Landschaft durch neuartige Ansätze erheblich erweitert.

Die wichtigsten algorithmischen Ansätze der CI und ihre Anwendungen

Zu den bedeutendsten Anwendungsbereichen der Computational Intelligence zählen Informatik, Ingenieurwesen, Datenanalyse und Biomedizin.

Fuzzy Systeme

Fuzzy-Regelsysteme basieren auf Fuzzy-Logik, welche im Gegensatz zur herkömmlichen Booleschen Logik auf Fuzzy-Mengen basiert. In beiden Logikmodellen wird eine Eigenschaft eines Objekts als Zugehörigkeit zu einer Menge definiert; in der Fuzzy-Logik wird diese Relation jedoch nicht scharf durch eine Ja/Nein-Unterscheidung definiert, sondern graduell abgestuft. Dies erfolgt mithilfe von Zugehörigkeitsfunktionen, die jedem Element eine reelle Zahl zwischen 0 und 1 als Zugehörigkeitsgrad zuweisen. Die so neu eingeführten Mengenoperationen definieren die Operatoren eines zugehörigen Logik-Kalküls, das die Modellierung von Inferenzprozessen, d. h. logischen Schlussfolgerungen, ermöglicht.[2.4] Daher eignet sich Fuzzy-Logik gut für technische Entscheidungen bei Unsicherheiten oder mit ungenauen Daten,[25] verfügt jedoch nicht über Lernfähigkeiten.[3.4]

Die Technologie findet in einer Vielzahl von Bereichen Anwendung, beispielsweise in der Regelungstechnik,[26] Bildverarbeitung,[27] Fuzzy-Daten-Clustering[27][28] und Entscheidungsfindung.[25] Fuzzy-Logik-basierte Steuerungssysteme finden sich beispielsweise im Haushaltsgerätebereich in Waschmaschinen, Geschirrspülern, Mikrowellenherden usw. oder bei Kraftfahrzeugen in Getriebe- und Bremssystemen. Die Methodik kommt auch bei der Bildstabilisierung von Videokameras zum Einsatz. Weitere Anwendungsbereiche der Fuzzy-Logik sind beispielsweise die medizinische Diagnostik, Satellitensteuerungen oder die Auswahl von Geschäftsstrategien.[25][2.5]

Neuronale Netze

Ein wichtiger Bereich der CI ist die Entwicklung künstlicher neuronaler Netze (KNN), die auf biologischen neuronalen Netzen basieren und durch drei Hauptkomponenten definiert werden können: den Zellkörper, der die Informationen verarbeitet, das Axon, das die Signalübertragung ermöglicht, und die Synapse, die die Signale steuert.[2.6][12.2] Daher eignen sich KNNs sehr gut für verteilte IT-systeme, da die Datenverarbeitung sowohl in der Lern- als auch in der Arbeitsphase parallel erfolgt.[3.5] KNNs zielen darauf ab, die kognitiven Prozesse des menschlichen Gehirns nachzuahmen. Zu den Hauptvorteilen dieser Technologie zählen daher Fehlertoleranz, Mustererkennung auch bei verrauschten Bildern und die Fähigkeit zu lernen.[2.6]

Hinsichtlich ihrer Anwendungsbereiche lassen sich neuronale Netze in fünf Gruppen einteilen: Datenanalyse und -klassifizierung, Assoziativspeicher, Datenclusterung oder -komprimierung, Mustergenerierung und Steuerungssysteme.[2.6][3.5][12.3] Zu den zahlreichen Anwendungsbereichen gehören beispielsweise die Analyse und Klassifizierung medizinischer Daten, einschließlich der Erstellung von Diagnosen, Spracherkennung, Data Mining, Bildverarbeitung, Erstellung von Prognosen, Robotersteuerung, Betrugserkennung, Kreditgenehmigung, Mustererkennung, Gesichtserkennung und der Umgang mit Nichtlinearitäten eines Systems, um dieses zu steuern.[2.6][3.5][12.3] KNNs haben mit Fuzzy-Logik den letzteren Anwendungsbereich und die Datenclusterung gemeinsam. Generative Systeme, die auf Deep Learning und Convolutional Neural Networks basieren, wie beispielsweise chatGPT oder DeepL, sind ein relativ neues Anwendungsgebiet.

Evolutionary Computation

Evolutionary computation (EC) kann als eine Familie von Methoden und Algorithmen zur globalen Optimierung betrachtet werden, die in der Regel auf einer Population von Lösungsansätzen basieren. Sie sind von der biologischen Evolution inspiriert[29.1][30.1] und werden oft unter dem Begriff „evolutionäre Algorithmen“ zusammengefasst.[9][29][31] Dazu gehören die genetischen Algorithmen, die Evolutionsstrategie, die genetische Programmierung und viele andere Verfahren.[9][29.2][30.2] Sie gelten als Problemlöser für Aufgaben, die mit traditionellen mathematischen Methoden nicht lösbar sind,[29.3][30.3][31.1] und werden häufig für Optimierungsaufgaben einschließlich Mehrzieloptimierungen eingesetzt.[29.4][32] Da die Mitglieder einer Population pro Iteration parallel verarbeitet werden können, bietet sich die Verteilung der Population auf die Computerknoten eines Clusters unmittelbar an.[33] Zusätzlich kann die Bewertung bei allen Verfahren, die mehrere Nachkommen pro Paarung und Iteration erzeugen, nochmals verteilt werden, was insofern relevant ist, als die Bewertungen häufig den zeitaufwändigsten Teil des Optimierungsprozesses darstellen.[34]

Im Laufe der Optimierung lernt der Algorithmus etwas über die Struktur des Suchraums und speichert diese Informationen in den Chromosomen der Lösungskandidaten. Nach einem Durchlauf kann dieses Wissen für ähnliche Aufgaben wiederverwendet werden, indem einige der „alten“ Chromosomen angepasst und zur Bildung einer neuen Startpopulation verwendet werden.[35][36]

Schwarmintelligenz

Schwarmintelligenz (SI) basiert auf dem kollektiven Verhalten dezentralisierter, selbstorganisierter Systeme, die typischerweise aus einer Population einfacher Agenten bestehen, die lokal miteinander und mit ihrer Umgebung interagieren. Trotz des Fehlens einer zentralisierten Kontrollstruktur, die vorschreibt, wie sich die einzelnen Agenten verhalten sollen, führen lokale Interaktionen zwischen solchen Agenten oft zum Entstehen eines globalen Verhaltens.[3.6][37][38] Zu den anerkannten Vertretern von SI basierten Algorithmen zählen die Partikelschwarm-Optimierung (PSO) und die Ant Colony Optimization (ACO).[1.5][2.7] Beides sind metaheuristische Optimierungsalgorithmen, die zur (näherungsweisen) Lösung schwieriger numerischer Probleme oder komplexer kombinatorischer Optimierungsaufgaben eingesetzt werden können.[39][40] Da die Verfahren auf einer Population beruhen, lassen sie sich genauso wie die evolutionären Algorithmen leicht parallelisieren.[41][42] Außerdem weisen sie vergleichbare Lerneigenschaften auf.[43][44]

Bayessche Netze (Bayesian networks)

In Bereichen komplexer Anwendungen bieten Bayessche Netzwerke eine Möglichkeit, unsicheres Wissen effizient zu speichern und auszuwerten. Ein Bayessches Netzwerk ist ein probabilistisches grafisches Modell, das eine Reihe von Zufallsvariablen und deren bedingte Abhängigkeiten durch einen gerichteten azyklischen Graphen darstellt. Die probabilistische Darstellung erleichtert es, auf der Grundlage neuer Informationen Schlussfolgerungen zu ziehen. Darüber hinaus eignen sich Bayessche Netzwerke gut für das Lernen aus Daten.[1.3] Ihr breites Anwendungsspektrum umfasst medizinische Diagnostik, Risikomanagement, Informationsabruf (information retrieval), Textanalyse, z. B. für Spamfilter, Bonitätsbewertung von Unternehmen und den Betrieb komplexer industrieller Prozesse.[45]

Künstliche Immunsysteme

Künstliche Immunsysteme sind eine weitere Gruppe populationsbasierter metaheuristischer Lernalgorithmen, die für die Lösung von Clustering- und Optimierungsproblemen entwickelt wurden. Diese Algorithmen sind von den Prinzipien der theoretischen Immunologie und den Prozessen des Immunsystems von Wirbeltieren inspiriert und nutzen die Lern- und Gedächtniseigenschaften des Immunsystems, um ein Problem zu lösen. Dabei kommen die von den evolutionären Algorithmen bekannten Operatoren zum Klonen und Mutieren künstlicher Lymphozyten zur Anwendung.[11.3][46] Künstliche Immunsysteme bieten interessante Fähigkeiten wie Anpassungsvermögen, selbständiges Lernen und Robustheit, die für verschiedene Aufgaben in den Bereichen Datenverarbeitung,[46] in Fertigungssystemen,[47] Systemmodellierung und -steuerung, Fehlererkennung oder Cybersicherheit[11.3] genutzt werden können.

Probabilistische Methoden

Als eines der Hauptelemente der Fuzzy-Logik zielen probabilistische Methoden, die erstmals 1974 von Paul Erdos und Joel Spencer eingeführt wurden,[48][3.7] darauf ab, die Ergebnisse eines computergestützten intelligenten Systems zu bewerten, das größtenteils durch Zufälligkeit definiert ist.[49] Daher bringen probabilistische Methoden auf der Grundlage von Vorwissen mögliche Lösungen für ein Problem hervor.

Lerntheorie und Maschinelles Lernen

Auf der Suche nach einer „Denkweise“, die der des Menschen nahekommt, ist die Lerntheorie einer der wichtigsten Ansätze der KI. In der Psychologie ist Lernen der Prozess, bei dem kognitive, emotionale und umweltbedingte Einflüsse und Erfahrungen zusammengeführt werden, um Wissen, Fähigkeiten, Werte und Weltanschauungen zu erwerben, zu verbessern oder zu verändern.[50][51][3.8] Lerntheorien helfen dabei, zu verstehen, wie diese Einflüsse und Erfahrungen verarbeitet werden, und ermöglichen es dann, auf der Grundlage früherer Erfahrungen Vorhersagen zu treffen.[52] Die neue wissenschaftliche Disziplin des maschinellen Lernens geht auf A. Samuel zurück[53] und hat sich auf der Grundlage psychologischer Lerntheorien entwickelt. Man unterscheidet vier Lernformen, überwachtes, unüberwachtes, semi-überwachtes und bestärkendes Lernen. Lernmechanismen sind ein wesentlicher Bestandteil jedes intelligenten Systems und daher leistungsstarke Werkzeuge für die CI.[3.8]

Hybride Systeme

Zwischen den Methoden der CI gibt es oft Synergien.[54][55] Dazu nachfolgend drei Beispiele stellvertretend für zahlreiche andere hybride Formen: So werden z. B. Evolutionäre Algorithmen häufig zum Entwurf von Künstlichen neuronalen Netzen[3.9] und Fuzzy-Systemen[1.6][3.10] verwendet. Die Grundidee der Kombination von Fuzzy-Systemen und neuronalen Netzen besteht darin, eine Architektur zu entwerfen, die ein Fuzzy-System zur interpretierbaren Darstellung von Wissen und die Lernfähigkeit eines neuronalen Netzes zur Optimierung der Parameter des Fuzzy-Teils nutzt. Eine solche Kombination kann ein interpretierbares Modell bilden, das lernfähig ist und problemspezifisches Vorwissen nutzen kann.[56][57] Daher eignen sich Neuro-Fuzzy-Verfahren besonders für Anwendungen, die eine Benutzerinteraktion bei der Modellgestaltung oder -interpretation erfordern.[58] Darüber hinaus gibt es weitere verschiedene kooperative und integrative Architekturen,[3.11] insbesondere für Steuerungs-, Klassifizierungs- und Funktionsapproximationsaufgaben.[1.7]

Studium und Wissenschaft

In Deutschland wird Computational Intelligence oder einzelne Teilgebiete an vielen Universitäten (z. B. Uni Bonn,[59] TU Darmstadt,[60] Dortmund,[61] Dresden,[62] Kassel,[63] Karlsruhe,[64][65] Magdeburg,[66] Osnabrück,[67] Siegen[68]) und Fachhochschulen (z. B. Bochum,[69] Darmstadt,[70] Frankfurt am Main,[71] Karlsruhe,[72] Köln Abt. Gummersbach,[73] Mittweida,[74] Osnabrück,[75] Südwestfalen[76]) gelehrt.

Im Jahr 2025 listete die Website EduRank.org weltweit 5.925 Universitäten auf, die Lehrveranstaltungen im Bereich der künstlichen Intelligenz anbieten.[77] Diese verteilen sich auf die Regionen Asien (2.536), Europa (1.368), Nordamerika (1.295), Lateinamerika (370), Afrika (305) und Ozeanien (51).

Zu den anerkannten Fachzeitschriften zählen unter anderem Computational Intelligence, International Journal of Computational Intelligence Systems, Applied Computational Intelligence and Soft Computing und das IEEE Computational Intelligence Magazine. Zu den wichtigen europäischen Konferenzen gehören unter anderem das European Symposium on Artificial Neural Networks, Computational Intelligence and Machine Learning (ESANN) und das European Symposium on Computational Intelligence and Mathematics (ESCIM).

International ist die 2004 gegründete IEEE Computational Intelligence Society aktiv, die auch einen Konferenzkalender bereitstellt.

Siehe auch

Literatur

  • Thomas Hanne, Rolf Dornberger: Computational Intelligence in Logistik und Supply Chain Management. Springer Gabler 2023. ISBN 978-3-03121451-6.
  • Rudolf Kruse, Sanaz Mostaghim, Christian Borgelt, Christian Braune, Matthias Steinbrecher: Computational Intelligence. A Methodological Introduction. Springer 2022. ISBN 978-3-030-42226-4.
  • Andreas Kroll: Computational Intelligence. Probleme, Methoden und technische Anwendungen. De Gruyter 2016. ISBN 978-3-11-040066-3.
  • David B. Fogel, Derong Liu, James M. Keller: Fundamentals of Computational Intelligence: Neural Networks, Fuzzy Systems, and Evolutionary Computing. Wiley 2016. ISBN 978-1-119-21434-2.
  • Rudolf Kruse, Christian Borgelt, Christian Braune, Frank Klon, Christian Mewes, Matthias Steinbrecher: Computational Intelligence: Eine methodische Einführung in Künstliche Neuronale Netze, Evolutionäre Algorithmen, Fuzzy-Systeme und Bayes-Netze. Springer Vieweg 2015, ISBN 978-3-658-10903-5.
  • Nazmul Siddique, Hojjat Adeli: Computational Intelligence: Synergies of Fuzzy Logic, Neural Networks and Evolutionary Computing. John Wiley & Sons 2013, ISBN 978-1-118-33784-4.
  • Oliver Kramer: Computational Intelligence. Eine Einführung. Springer 2009. ISBN 978-3-540-79738-8.

Einzelnachweise

Related Articles

Wikiwand AI