Mikroprozessor

Prozessor in sehr kleinem Maßstab From Wikipedia, the free encyclopedia

Ein Mikroprozessor (µP oder uP) ist ein als integrierter Schaltkreis (IC) ausgeführter Computerprozessor.[1] Typische Beispiele von Mikroprozessoren sind die Hauptprozessoren oder Central Processing Unit (CPU) moderner Computer oder Personal Computer (PC), welche mitunter mit dem Begriff Mikroprozessor gleichgesetzt werden.[2]

Mikroprozessor i486DX2 von Intel: Das geöffnete Gehäuse des ICs zeigt das 76 mm² große Halbleiterplättchen mit 1,2 Millionen Transistoren. Der zentrale rechteckige Bereich ist die eigentliche elektronische Schaltung, an deren Seiten die Anschlussleitungen zur Verdrahtung zu den Pins des Gehäuses angeordnet sind. Durch unterschiedliche Helligkeiten sind Funktionseinheiten wie Rechenwerk und Cache der CPU zu erkennen. (1992)
Ungeöffneter Intel-Prozessor Baustein: Unten dem Gehäuse ist ein Teil der 168 Pins zu sehen, die im Betrieb im Prozessorsockel auf der Hauptplatine eines PCs stecken. (1989)

Mikroprozessoren sind eine Halbleitertechnologie, die seit den 1980er Jahren das Informationszeitalter bzw. digitale Revolution prägt. Seit den 2010er Jahren sind Mikroprozessoren in mobilen Computergeräten wie Smartphones verbaut und viele moderne CPUs sind Mehrkernprozessoren.

Die Erforschung und Entwicklung (F&E) von Mikroprozessoren findet im Rahmen einer interdisziplinären Ingenieurwissenschaft statt, und als der Entwurf mikroelektronischer Schaltungen oder Computer Aided Engineering (CEA) bekannt wurde, da Computer und Software zur Konstruktion neuer Schaltungen bis heute genutzt wird. Die F&E wird weltweit betrieben und vereint die Fachgebiete Computerwissenschaften, Elektrotechnik, Mikroelektronik, Halbleitertechnik u. a.

Einleitung

Ein mikroprozessorbasierter Computer ist im Vergleich zu einem historischen Röhrentechnikmaschinen (z. B. das „Manchester Baby“ oder Colossus) eine stark verkleinert und hochintegriert Rechnerarchitektur auf einem Die oder Chip. Physikalisch und in der Produktion geschieht dies u. a. durch fotolithographische Prozesse, welche den Mikroprozessor aus einem Wafer herstellen. Diese Halbleitertechnologie, welche Mikroprozessoren ermöglicht, ist auch als Very Lage Scale Integration (VLSI) bekannt. Im Zuge fortschreitender Miniaturisierung war es möglich, neben dem reinen Mikroprozessor auch zusätzliche Peripherie auf einem Chip zu integrieren. Damit war der Mikrocontroller (µC oder uC) und später das System-on-a-Chip (SoC) geboren. Man spricht auch von einer Microcontroller Unit (MCU). Dabei werden verschiedene Prozessortypen und andere integrierte Schaltkreise auf einer Platine gruppiert oder vernetzt. Man spricht dann auch von einem Chipsatz.

Ein typischer Mikroprozessor ist ein getakteter, Register-basierter, digitaler integrierter Schaltkreis (IC) in CMOS- bzw. MOSFET-Technik, der Binärdaten entsprechend der in seinem Arbeitsspeicher enthaltenen Anweisungen verarbeitet und in binärer Form wieder ausgibt. Ein Mikroprozessor besteht aus weiteren Unterbausteinen, speziell der Arithmetic Logic Unit (ALU). Prozessoren besitzen eine eigene Mikroarchitekturen bzw. Prozessorarchitekturen, wie beispielsweise die CISC-, RISC-, RISC-V, MIPS-, oder POWER-Architektur.

In der Vergangenheit benötigte eine röhrenbasierte Rechenmaschine meist einen ganzen Raum, mit mehreren Schaltschränken, wohingegen ein Mikroprozessor als Baustein auf einer Hauptplatine unterkommt. Nur moderne Mainframes und Supercomputer sind heutzutage weiterhin große Rechenmaschinen, jedoch halbleiterbasiert. Der erste Mikroprozessor wurde Anfang der 1970er Jahre von dem Unternehmen Texas Instruments auf der Basis der IC-Technik bzw. Halbleitertechnik entwickelt. Der erste kommerzielle Mikroprozessor war der Intel 4004.[3]

Neben den Mikroprozessoren gibt es zahlreiche spezialisierte Mikroprozessoren, z. B. Netzwerk-, Grafik- und Soundprozessoren. Außerdem existieren spezielle Geräte, Complex Programmable Logic Device (CPLD), Field Programmable Gate Arrays (FPGA) oder Application Specific Integrated Circuits (ASIC), welche als Mikroprozessor ausgelegt werden können.

Dieser Artikel beschreibt vornehmlich Zentralmikroprozessoren oder CPUs. Für die Technologie der Grafikprozessoren (GPU), siehe dort. Beide Geräte sind Mikroprozessoren, jedoch unterschiedlicher Architektur für unterschiedliche Zwecke. Gleiches gilt auch für andere spezialisierte Mikroprozessoren.

Begriff und Technologie-Nodes

Der Präfix des Begriffs Mikroprozessor stammt von griechisch μικρός mikrós, deutsch klein und geht auf die physikalische und metrische Längeneinheit 1 Mikro oder 1 μ = 1 um = 10−6 m zurück, was auf die geringen Strukturgrößen der Transistoren hindeutet. Man spricht auch von microns für Mikrometer.

Die Strukturgrößen haben sich im Laufe der Jahrzehnte (vgl. die Tabelle) von wenigen Mikrometern (c. 1980er) in den zwei bis einstelligen Nanometerbereich entwickelt, wobei der Begriff „Mikroprozessor“ erhalten blieb.[2] Man teilt die Herstellung von Halbleiterschaltungen bzw. Mikroprozessoren in Technologieknoten ein:

  • >= 65 nm
  • 20–64 nm
  • 11–19 nm
  • < 11 nm

So werden beispielsweise viele Halbleiterprodukte (ICs), die in Elektrogeräten allgegenwärtig sind, in einem Node-Bereich von 45 bis 130 nm hergestellt. Halbleiterschaltungen mit analogen Anteilen im >= 45 nm Bereich spielen in einer großen Anzahl von Geräten weiterhin eine wichtige Rolle.[4][5] Für moderne Hochleistungs-CPUs (Multikerne) und SoCs, auch für Smartphones, kommen < 14 nm Prozesse bei großen 300 mm Wafern zum Einsatz. Bei diesen Strukturgrößen spricht man von Nanoelektronik.

Halbleiterfabriken planen ihre Produktion daher für diese Größenkategorien nach Bedarf. Eine aufwendige Anpassung der Produktion oder andere Störungen der Lieferketten führten ab 2020 zu einem Chipmangel, der wiederum folgende Produktionsstörungen verursachte, beispielsweise in der Automobilindustrie.

Geschichte

Weitere Informationen Bilder, Her- steller ...
Entwicklung der Transistoranzahl bei Mikroprozessoren (Auswahl)
Bilder Her-
steller
Modell Technologieknoten Transistor-
anzahl
Jahr
TI TMS1000 8.000 1971
Intel 4004 2.300 1971
Intel 8008 10 μm 3.500 1972
Intel 8080 4.500 1974
MOS 6502 5.000 1975
TI TMS9900 8.000 1976
Zilog Z80 8.500 1976
Intel 8086 29k 1978
Intel 8088 29k 1979
Motorola 68000 68k 1979
Intel 80286 134k 1982
Intel 80386 1 μm 275k 1985
Intel 80486 1,2 Mio. 1989
Intel Pentium 0,8–0,25 µm 3,1 Mio. 1993
Motorola 68060 2,5 Mio. 1994
Intel Pentium Pro 5,5 Mio. 1995
AMD K5 4,3 Mio. 1996
Intel Pentium II 350 nm 7,5 Mio. 1997
AMD K6 8,8 Mio. 1997
Intel Pentium III 250–130 nm 9,5 Mio. 1999
AMD K6-III 21,3 Mio. 1999
AMD K7 22 Mio. 1999
Intel Pentium 4 180–65 nm 42 Mio. 2000
Intel Itanium 25. Mio. 2001
AMD Barton 54 Mio. 2003
Intel Pentium M 130–90 nm 77 Mio. 2003
AMD K8 106 Mio. 2003
Intel, HP Itanium 2 220 Mio. 2003
Intel Itanium 2 592 Mio. 2004
Sony/
IBM/
Toshiba
Cell 241 Mio. 2006
Intel Core 2 Duo 65 nm 291 Mio. 2006
Intel Core 2 Quad 582 Mio. 2006
Intel μCore
Itanium 2
1,7 Mrd. 2006
IBM Power6 65 nm 789 Mio. 2007
Intel Core i7 45–10 nm 731 Mio. 2008
AMD K10 758 Mio. 2009
Intel Core i7 2600K 0,9 Mrd. 2010
AMD Bulldozer 32 nm 1,2 Mrd. 2011
Intel Core i7 3930K 32 nm 2,3 Mrd. 2011
Intel Core i7 4770K 1,4 Mrd. 2013
AMD Kaveri 2,4 Mrd. 2014
Intel E5-2699 v3 22 nm 5,6 Mrd. 2014
Intel E7-8890 v4 14 nm 7,2 Mrd. 2016
AMD Ryzen Thread-
ripper 1950X
14 nm 9,6 Mrd. 2017
Apple M2 Ultra[6] 5 nm 134 Mrd. 2023
Apple M3 Ultra[7] 3 nm 184 Mrd. 2025[8]
Schließen

Die ZUSE Z3 gilt als der erste funktionsfähige speicherprogrammierbare Digitalrechner weltweit[9] und wurde im Jahr 1941 von Konrad Zuse in Zusammenarbeit mit Helmut Schreyer in Berlin gebaut. Die Z3 bestand aus 600 Relais für das Rechenwerk und 1400 Relais für das Speicherwerk.[10] Dieser Rechner markiert den Beginn der in der Literatur oft als Generation 0 bezeichneten Epoche, der auf elektromagnetischer Relaistechnik basierenden Rechenautomaten.[11][12] Im Jahr 1946 wurde der ENIAC (Electronical Numerical Integrator and Computer) unter der Leitung von John Eckert und John Mauchly entwickelt und an der Moore School of Electrical Engineering der Universität von Pennsylvania gebaut. Der ENIAC verfügte über 20 elektronische Register, 3 Funktionstafeln als Festspeicher und bestand aus 18.000 Röhren sowie 1.500 Relais.[13] Der ENIAC gilt als der erste vollelektronische digitale Universalrechner. Bei diesen Rechenautomaten konnte noch keine Rede von einzelnen Prozessoren im späteren Sinne sein.

Der technologische Sprung von der Röhren- zur Transistortechnik hatte einen geringeren Platzbedarf, eine geringere Temperaturentwicklung, eine höhere Verarbeitungsgeschwindigkeit, eine niedrigere Ausfallquote sowie einen geringeren Stromverbrauch von nur einigen 100 Watt zur Folge. Die Taktfrequenz stieg auf etwa 1 MHz. Durch die fortschreitende Verkleinerung der Transistoren war es bald möglich, immer mehr Transistoren auf integrierten Schaltungen (ICs) unterzubringen. Waren es zunächst nur einzelne Gatter, integrierte man immer häufiger auch ganze Register und Funktionseinheiten wie Addierer und Zähler, schließlich sogar Registerbänke und Rechenwerke auf einem Chip. Diese zunehmende Integration von immer mehr Transistor- und Gatterfunktionen auf einem Chip führte bald zum Mikroprozessor.

Patentiert wurde der Mikroprozessor von Mitarbeitern des US-amerikanischen Unternehmens Texas Instruments (TI), die im Jahr 1971 den TMS1000 genannten Schaltkreis vorstellten. Diese Entwicklung gilt als Meilenstein für den Eintritt in die 4. Generation der Computertechnik.[12] Der TMS1000 enthielt neben einem Hauptprozessor ein 1 KiB großes ROM, ein 64×4-Bit-RAM und weitere Funktionen wie Zähler und Timer sowie Schnittstellen für Eingabe und Ausgabe. Damit gehört der TMS1000 zur Familie der Mikrocontroller.

Im selben Jahr wie TI präsentierte das ebenfalls in den USA ansässige Unternehmen Intel mit dem 4004 den „Mikroprozessor“ (englisch microprocessor unit, MPU), der als erster Hauptprozessor (CPU) auf einem Chip angesehen wird, da TI den TMS1000 erst ab dem Jahr 1974 als eigenständiges Produkt vermarktete. Mit nur 4 Bit breiten Registern und einer Taktfrequenz von bis zu 740 kHz war der 4004 nicht sehr leistungsfähig. Seine im Vergleich mit den klassischen CPUs äußerst kompakte Bauform verhalf dem Mikroprozessor schließlich trotzdem zum Durchbruch. Ursprünglich war der 4004 eine Auftragsentwicklung für den japanischen Tischrechnerhersteller Busicom. Intels Mitarbeiter Ted Hoff formulierte 1969 die architektonische Idee, das Herz dieses Tischrechners in Form eines programmierbaren Bausteins zu realisieren. Im Jahr 1970 entwickelte Federico Faggin eine Schaltkreisintegration auf Grundlage von Transistoren mit einer Gate-Elektrode aus Silizium für die Umsetzung des 4004 und führte das Projekt zu seinem erfolgreichen Debüt auf dem Markt im Jahr 1971. Dass daraus die erste universell einsetzbare Einchip-CPU der Welt resultierte, war eigentlich nicht beabsichtigt. Da Busicom damals in finanziellen Schwierigkeiten steckte, bot man Intel den Rückkauf des 4004-Designs an, woraufhin Intel mit der Vermarktung des 4004 begann. Der 4004 wurde zum ersten kommerziellen Mikroprozessor der Welt.

Eine weitere bemerkenswerte Entwicklung wurde im Jahr 1998 nach der Freigabe militärischer Unterlagen bekannt. Demnach hat Garrett AiResearch (u. a. mit den Mitarbeitern Steve Geller und Ray Holt) bereits zwischen 1968 und 1970 einen Chipsatz (aus mehreren ICs bestehendes System, incl. CPU) für militärische Zwecke entwickelt.[14][15][16][17] Der als MP944 bezeichnete Chipsatz war Bestandteil des Central Air Data Computer (CADC), des Flugkontrollsystems der neuen F-14 Tomcat (US Navy).

Zunächst waren die Schaltungen recht einfach. Die Mikroelektronik (bis etwa 100 nm) brachte neben der Miniaturisierung und der Kostenersparnis weitere Vorteile wie Geschwindigkeit, geringen Stromverbrauch, Zuverlässigkeit und später auch höhere Komplexität mit sich. Das führte dazu, dass vergleichsweise billige Mikroprozessoren mit der Zeit die teuren Prozessoren der Minicomputer und teilweise sogar die Großrechner verdrängten. Gegen Ende des 20. Jahrhunderts hielt der Mikroprozessor Einzug in viele elektronische Geräte, vor allem als CPU von Personal-Computern (PCs). Auch als die Strukturgröße der Mikroprozessorchips auf einige Nanometer weiter verkleinert wurde (14 nm, Stand Januar 2015, Intel Broadwell-Architektur), blieb der Begriff Mikroprozessor bestehen. Die kleinsten Größenordnungen sind durch die Nanoelektronik charakterisiert.

Die Wortbreite war wegen der anfangs geringen Integrationsdichte zunächst auf 4 Bit beschränkt. Mit der Zeit wurde die Wortbreite kontinuierlich gesteigert, meistens in Verdopplungsschritten. Da die Ressourcen zu Anfang teuer waren, suchte man nach Wegen, sie optimal an die jeweiligen Erfordernisse anzupassen. Eine Episode auf dem Weg dazu waren Bit-Slice-Systeme, bei denen man mehrere Bit-Slice-Prozessoren geringer Bitbreite zu einem System der gewünschten, größeren Bitbreite zusammenschalten konnte.

Zur Realisierung eines kompletten Computers muss der Mikroprozessor um Speicher und Ein-/Ausgabe-Funktionen erweitert werden. Diese werden in Form weiterer externer Chips/ICs als Teil eines Computersystems benötigt. Nur der Mikrocontroller (MCU) als Chip besitzt einen Teil dieser Funktionen auf einem IC, wobei man hier von System-on-Chip (SoC) sprechen kann, jedoch wird letzterer Begriff (SoC) häufiger für IC-Bausteine verwendet, die beispielsweise einen MCU und weitere ICs in einem Gerät vereinen, z. B. Radio (Wi-Fi). Ein Beispiels ist die Snapdragon SoC-Plattform von Qualcomm, welche auf einer ARM-Mikroarchitektur aufbaut.

Je nach Wortbreite, Befehlstypus (CISC oder RISC) und Hersteller unterteilen sich die Prozessoren in verschiedene Prozessorarchitekturen.

Prozessorarchitekturen

8-Bit-Prozessoren

Der 4004 wurde im Jahr 1972 durch den 8008 abgelöst, den ersten 8-Bit-Mikroprozessor der Welt. Dieser Prozessor war der Vorläufer des äußerst erfolgreichen Intel 8080 (1974) und weiterer 8-Bit-Prozessoren von Intel. Der konkurrierende Motorola 6800 war ab August 1974 erhältlich, im selben Jahr wie der 8080. Die Architektur des 6800 wurde 1975 für den MOS Technology 6502 kopiert und verbessert, der in den 1980er Jahren in der Popularität mit dem Z80 wetteiferte.

Das Entwicklerteam des 8080 gründete das Unternehmen Zilog und brachte im Jahr 1976 den Z80 heraus, eine stark verbesserte und Code-kompatible Weiterentwicklung. Dieser erlangte die größte Popularität aller 8-Bit-Prozessoren. Sowohl der Z80 als auch der 6502 wurden im Hinblick auf niedrige Gesamtkosten entwickelt. Das Gehäuse war deutlich kleiner als bei vergleichbaren Mikroprozessoren, die Ansprüche an den Bus gering und es wurden Schaltungen eingebunden, die bisher in einem separaten Chip zur Verfügung gestellt werden mussten (der Z80 verfügte z. B. über einen eigenen Refresh-Generator für dynamische RAM-Speicher DRAM). Diese Eigenschaften waren es, die dem Heimcomputermarkt zu Beginn der 1980er Jahre zum Durchbruch verhalfen und in Maschinen resultierten, die für 99 US-Dollar erhältlich waren.

Der SC/MP wurde von der National Semiconductor Corporation aus Santa Clara Mitte der 1970er Jahre vertrieben. Verschiedene Einplatinencomputer wurden als Selbstbau- und Lehrcomputer auf Basis des SC/MP bis etwa 1980 realisiert.

Western Design Center (WDC) stellte im Jahr 1982 den CMOS 65C02 vor und lizenzierte das Design an verschiedene Unternehmen. Dieser Prozessor wurde das Herz des Apple IIc und IIe und wurde in Herzschrittmachern und Defibrillatoren, Autos sowie in industriellen Geräten und auf dem Verbrauchermarkt eingesetzt. WDC bereitete so den Weg vor für das Lizenzieren von Mikroprozessor-Technologie; dieses Geschäftsmodell wurde später von ARM und anderen Herstellern in den 1990er Jahren übernommen.

Motorola übertrumpfte 1978 die gesamte 8-Bit-Welt mit der Vorstellung des Motorola 6809, eine der leistungsstärksten und saubersten 8-Bit-Architekturen und auch eine der komplexesten Mikroprozessor-Logiken, die je produziert wurden. Mikroprogrammierung ersetzte zu dieser Zeit die bisher festverdrahteten Logiken – gerade weil die Anforderungen der Designs für eine feste Verdrahtung zu komplex wurden.

Ein weiterer 8-Bit-Mikroprozessor war der Signetics 2650, der aufgrund seiner innovativen und leistungsfähigen Befehlssatz-Architektur kurzzeitig im Zentrum des allgemeinen Interesses stand.

Ein für die Raumfahrt wegweisender Mikroprozessor war der RCA1802 (alias CDP1802, RCA COSMAC; vorgestellt 1976), der in den Voyager-, Viking- und Galileo-Raumsonden eingesetzt wurde. Der CDP1802 wurde verwendet, weil er mit sehr wenig Energie betrieben werden konnte und seine Bauart (Silicon-on-Sapphire) einen wesentlich höheren Schutz gegenüber kosmischer Strahlung und elektrostatischen Entladungen bot als jeder andere Prozessor zu dieser Zeit. Der CP1802 wurde als erster strahlungsgehärteter (radiation-hardened) Prozessor bezeichnet.

16-Bit-Prozessoren

Der erste Mehrfach-Chip-16-Bit-Mikroprozessor war der IMP-16 von National Semiconductor, vorgestellt 1973. Eine 8-Bit-Version folgte ein Jahr später als IMP-8. 1975 stellte National Semiconductor den ersten Ein-Chip-16-Bit-Mikroprozessor PACE vor, dem später eine NMOS-Version folgte (INS8900).

Andere Mehrfach-Chip-16-Bit-Mikroprozessoren waren der TMS 9900 von TI, der auch mit der hauseigenen TI-990-Minicomputermodellreihe kompatibel war. Der Chip besaß ein großes 64-Pin-DIP-Gehäuse, während die meisten 8-Bit-Prozessoren in das weiter verbreitete, kleinere und billigere 40-Pin-DIP-Gehäuse aus Kunststoff eingesetzt wurden. Ein Nachfolger wurde aus dem 9900 entwickelt, der TMS 9980, der ebenfalls ein billigeres Gehäuse besaß. Er sollte ein Konkurrent zum Intel 8080 werden. Der TMS 9980 konnte 8 Datenbits zur gleichen Zeit kopieren, aber nur 16 KiB adressieren. Ein dritter Chip, der TMS 9995, wurde neu entwickelt. Diese Prozessorfamilie wurde später mit dem 99105 und 99110 erweitert.

WDC machte seinen 65C02 16-Bit-tauglich und stellte diesen Prozessor 1984 als CMOS 65816 vor. Der 65816 stellte den Kern des Apple IIgs und später des Super Nintendo dar, was ihn zu einem der beliebtesten 16-Bit-Designs machte.

Intel verfolgte die Strategie, keine Minicomputer zu emulieren, und „vergrößerte“ stattdessen sein 8080-Design auf 16 Bit. Daraus entstand der Intel 8086, das erste Mitglied der x86-Familie, die heute in den meisten PCs zu finden ist. Der 8086 und sein „kleiner Bruder“, der 8088 boten die Möglichkeit, Software von der 8080-Linie zu portieren, womit Intel gute Geschäfte machte. Nachfolger des 8086 wurde der 80186, der 80286 und 1985 der 32-Bit-Prozessor 80386, die alle rückwärtskompatibel waren und so die Marktvorherrschaft von Intel entscheidend stärkten.

32-Bit-Prozessoren

Der erste 32-Bit-Mikroprozessor in einem eigenen Gehäuse war der BELLMAC-32A von AT&T Bell Labs, von dem erste Stücke 1980 erhältlich waren, und der 1982 in Masse produziert wurde. Nach der Zerschlagung von AT&T 1984 wurde er in WE 32000 umbenannt (WE für Western Electric) und hatte zwei Nachfolger: Den WE 32100 und WE 32200. Diese Mikroprozessoren wurden in den folgenden Minicomputern von AT&T eingesetzt: 3B2, 3B5, 3B15, „Companion“ und „Alexander“.

Einer der bemerkenswertesten 32-Bit-Mikroprozessoren ist der MC68000 von Motorola, der 1979 vorgestellt wurde. Er wurde häufig auch als 68K bezeichnet und verfügte über 32-Bit-Register, verwendete aber 16 Bit breite interne Busleitungen und einen ebenso breiten externen Datenbus, um die Anzahl benötigter Pins zu verringern. Motorola bezeichnete diesen Prozessor im Allgemeinen als 16-Bit-Prozessor, obwohl er intern über eine 32-Bit-Architektur verfügte. Die Kombination aus einem schnellen und großen Speicheradressraum (16 Megabyte) und geringen Kosten machten ihn zum beliebtesten Prozessor seiner Klasse. Der Apple Lisa und die Macintosh-Reihe verwendeten den 68K; Mitte der 1980er Jahre wurde dieser Prozessor auch im Atari ST und Commodore Amiga eingesetzt.

Intels erster 32-Bit-Mikroprozessor war der 1981 vorgestellte iAPX 432. Obwohl er über eine fortgeschrittene, objektorientierte Architektur verfügte, war ihm kein kommerzieller Erfolg beschieden – nicht zuletzt weil er in der Leistung gegenüber konkurrierenden Architekturen schlechter abschnitt.

Motorolas Erfolg mit dem 68K führte zur Vorstellung des MC68010, der die Technik der virtuellen Speicheradressierung unterstützte. Der MC68020 schließlich verfügte über 32 Bit breite interne und externe Busse. Dieser Prozessor wurde im Unix-Supermicrocomputer äußerst beliebt, und viele kleinere Unternehmen stellten Desktop-Systeme mit diesem Prozessor her. Der MC68030 integrierte die MMU in den Chip. Die meisten Computer, die nicht auf DOS liefen, setzten nun einen Chip der 68K-Familie ein. Dieser anhaltende Erfolg führte zum MC68040, der auch die FPU in den Chip integrierte und so die Geschwindigkeit arithmetischer Operationen erhöhte. Ein geplanter MC68050 erreichte nicht die erwünschten Verbesserungen und wurde nicht produziert, der MC68060 wurde auf ein Marktsegment geworfen, das bereits mit viel schnelleren RISC-Designs gesättigt war.

Der 68020 und seine Nachfolger wurden häufig in eingebetteten Systemen eingesetzt.

Während dieser Zeit (Anfang bis Mitte 1980) stellte National Semiconductor ähnlich wie Motorola einen 32-Bit-Prozessor mit einem 16-Bit-Pinout her, den NS 16032 (später umbenannt zu NS 32016). Die Version mit einem ebenfalls 32 Bit breiten Bus war der NS 32032. Sequent stellte basierend auf diesem Mikroprozessor Mitte der 1980er Jahre das erste Symmetrische Multiprozessorsystem (SMP) vor.

Andere Systeme setzten den Zilog Z80000 ein, der aber zu spät im Markt ankam und bald wieder verschwand.

64-Bit-Prozessoren

Während 64-Bit-Prozessoren in verschiedenen Märkten schon seit den frühen 1990er Jahren im Einsatz waren, wurden sie erst nach 2000 auch auf dem PC-Markt eingesetzt. Im Juli 2003 stellte Apple auf der Entwicklerkonferenz (WWDC) den Power Mac G5 vor, Apples ersten 64-Bit-Desktop-Computer. Vorher hatte es bereits von Sun Microsystems und anderen Herstellern 64-Bit-Rechner gegeben, die allerdings üblicherweise als Workstations und nicht als Desktop-Rechner bezeichnet werden, auch wenn kein technisches Merkmal diese Unterscheidung rechtfertigt.

Etwa gleichzeitig mit AMDs Einführung der ersten 64-Bit-Architektur x64 (bzw. „AMD64“ oder auch x86-64, zu IA-32 rückwärtskompatibel) im September 2000 begann die Ära der 64-Bit-Architekturen auch bei x86-Rechnern. AMD wurde bald gefolgt von Intel, die schon zuvor IA-64-CPUs herstellten (Itanium und Itanium 2), die aufgrund der fehlenden Abwärtskompatibilität am Consumer-Markt aber scheiterten. Nun wendete sich Intel der AMD64-Architektur zu und produziert seit dem Pentium-4-Kern Prescott 2M (Release: Februar 2005) eigene zu AMD64 kompatible Intel-64-Prozessoren. Beide x86-Prozessoren können die bisherige 32-Bit-Software wie auch die neue 64-Bit-Software ausführen. Mit 64-Bit-Windows-XP und -Linux bewegte sich die Software nun auf die neue Architektur hin und nutzte das volle Potenzial dieser Prozessoren. Wurden mit Windows Vista noch viele 32-Bit-Betriebssystem-Versionen vorinstalliert ausgeliefert, so gingen die meisten OEM-Hersteller mit der Veröffentlichung von Windows 7 zur 64-Bit-Version über, gerade auch da um 2010 die magische 4-GB-RAM-Grenze der 32-Bit-Systeme bei handelsüblichen Computern erreicht war.

Bei den PowerPC (PPC)-Architekturen wurde der Wechsel auf 64-Bit schon in den frühen 1990er Jahren vorgenommen (tatsächlich ist die PowerPC-Architektur von vornherein als 64-Bit-Architektur konzipiert, mit einer 32-Bit-Teilmenge für 32-Bit-Prozessoren[18]). So wurden zwar die Registergrößen und internen Busse beim Wechsel auf 64-Bit vergrößert, aber die arithmetischen und vektoriellen Recheneinheiten arbeiteten bereits vor dem Wechsel seit mehreren Jahren mit 64 oder mehr Bits (das ist auch bei IA-32 der Fall). Bei IA-32 (32-Bit-x86, i386 bzw. x86-32) ist der Wechsel zu 64-Bit (x64 bzw. x86-64: AMD64 oder Intel 64) mehr als nur die Erhöhung der Registerbreite, da auch die Anzahl der Register erhöht wurde, was die x86-Architektur insgesamt modernisierte. Als messbares Ergebnis zeigt sich dieser Umstand beispielsweise daran, dass Programme bei der Nutzung von nur 32 Bit breiten Adressen unter 64-Bit-x86 (x64 – z. B. unter Linux zur Unterscheidung mit „x32“ bezeichnet) fast immer schneller ablaufen als noch im nativen Betriebsmodus der 32-Bit-x86-Architektur (IA-32, i386, x86-32) mit nur halb so vielen Registern, oder umgekehrt, dass 32-Bit-Programme auf Architekturen wie beispielsweise PowerPC oder MIPS, die nicht von einer erhöhten Registerzahl im 64-Bit- gegenüber dem 32-Bit-Betrieb profitieren, oft zumindest gleichauf und manchmal sogar schneller sind als dieselben Programme als 64-Bit-Version.[19][20]

RISC-Prozessoren

Intel-i860-RISC-Mikroprozessor (1988/1990)

Mitte der 1980er bis in die frühen 1990er Jahre erschienen neue RISC-Mikroarchitekturen, die anfänglich in spezialisierten Computern und UNIX-Workstations eingesetzt wurden. Seither ist RISC in einer große Anzahl von Geräte zu finden, für verschiedene Anwendungen; auch eine Mischarchitektur RISC-CISC (oder umgekehrt) ist möglich. Mischarchitekturen, wie sie beispielsweise bei SoCs auftreten, werden auch heterogene System genannt. Anderenfalls spricht man von homogenen Systemen. So können beispielsweise eine RISC-CPU und eine CISC-CPU auf einem Chip integriert sein.

Die erste kommerzielle RISC-Architektur stammte von MIPS Technologies, der R2000 (der R1000 wurde nicht verkauft). Der R3000 machte die Architektur erst anwendbar, der R4000 schließlich stellte die erste 64-Bit-RISC-Architektur der Welt dar. Konkurrierende Projekte brachten die IBM-Power- und Sun-SPARC-Systeme hervor. Bald hatte jeder größere Hersteller ein RISC-Design im Angebot, z. B. den AT&T CRISP, AMD Am29000, Motorola 88000, DEC Alpha und den HP PA-RISC. Auch Intel, welches viele seiner CPUs in CISC-Architektur auslegt, hatten RISC-Prozessoren: Intel i860 und Intel i960

Der Wettbewerb ließ bald die meisten dieser Prozessoren verschwinden, wobei POWER und der davon abgeleitete PowerPC und Sun SPARC (nur in Suns eigenen Systemen) auch heute noch verfügbar sind. MIPS bietet weiterhin SGI-Systeme an, die Architektur wird aber meist als eingebettetes Design verwendet, z. B. in den Routern von Cisco.

Andere Anbieter konzentrieren sich auf Nischenmärkte, allen voran ARM (oder Arm), welches 1989 aus Acorn ausgegliedert wurde. Acorn war ein Hersteller von RISC-Computern, der mit den auf der ARM-Architektur basierenden Modellserien Acorn Archimedes und Acorn Risc PC als einer der ersten auch auf den Heimcomputermarkt abzielte. ARM konzentriert sich ab den 2000er Jahren auf die Lizenzierung (vgl. Intellectual Property (IP)) ihrer für eingebettete Architekturen und Mikrosysteme. ARM ist den 2010er Jahren der führende Anbieter für mobile Geräte, speziell Smartphones. ARM liefert auch die Architektur bzw. IP für Mikroprozessoren für Mikrocontroller, z. B. die Cortex-M-Reihe.[21]

Weiterer Prozessortypen

Dieser Die-Shot zeigt die Komplexität einer NVIDIA TU106-200A-KA-A1-GPU (hier in einer GeForce RTX 2060) in 12nm Strukturgröße gefertigt. (2021)

Um neben dem allgemeinen Hauptprozessor spezifischere Bereiche zu berechnen, wurden neben der CPU weitere Prozessoreinheiten wie die historischen mathematischen Koprozessoren, aber auch dedizierte Grafikprozessoren (GPUs) und spezielle Data Processing Units (DPUs) konzipiert.

Übliche PC-Grafikprozessoren bzw. -Schaltkreise für die Bildschirmausgabe waren in den 1970ern und 1980ern sehr schlicht gestaltet, da eine dreidimensionale Repräsentation von Grafikinhalten quasi erst ab den 1990ern eine Rolle spielte. Darüber hinaus waren damals auch monochrome Displays üblich, die nicht mal die Berechnung von Farben verlangen mussten. Ab der zweiten Hälfte der 1980er kam der VGA-Standard vermehrt zum Einsatz, der mit entsprechenden Grafikkarten und ihren GPUs und (späteren) Zusatzkomponenten wie eigenen Video-RAM einherging. Bis zur Jahrtausendwende erhöhte sich die gängige Bittiefe und damit die Anzahl möglicher darstellbarer Farben deutlich und auch 3D-Inhalte wie etwa in Spielen wurden populär.[22] Um hierfür nötige Berechnungen optimiert durchführen zu können, bekamen GPUs Untereinheiten. So enthielt bereits eine der ersten GPUs von NVIDIA namens NV10 die „Texture Mapping Units“, die sich um Texturberechnungen kümmern[23]. Schnittstellen wie DirectX und OpenCL werden ebenfalls ein De-Facto-Standard für grafische Schnittstellen. Wie auch die CPU selbst wurde die GPU als solche stets komplexer – nicht nur alleine wegen der höheren Transistorenzahl, sondern auch wegen der Ergänzung von spezialisierteren Rechenschaltkreisen. So können heutige GPUs über 1000 „Kerne“ (meist Shader-Units genannt) aufweisen. Dazu gibt es üblicherweise ROPs (Render Output Units), SMs (Streaming Multiprocessors), VRAM, Cache und Tensor-Kerne (vermehrt ab Mitte der 2010er), die KI-relevante Berechnungen übernehmen, oder RT-Kerne (vermehrt ab 2018), die das eigentlich sehr rechenintensive Berechnen von (Licht-)Strahlen schneller abarbeiten können. GPUs, die in Grafikkarten verbaut sind und die bereits genannten Komponenten enthalten oder ansteuern, nennt man „dGPUs“ oder dedizierte GPUs und in die CPU integrierte Grafikprozessoren „iGPUs“ (integrierte GPUs). Letztere müssen meist auf den konventionellen RAM zugreifen und haben deutlich weniger Rechenkerne und -einheiten.[24]

Quantencomputer und KI-unterstützende Mikroprozessoren

Seit dem frühen 21. Jahrhundert wird aktiv an Quantenprozessoren mit befehlbaren Quantenzuständen (vgl. auch Quantenzahlen), den Qubits (QPUs)[25], und neuronalen Prozessoren (NPUs)[26] geforscht. Hierbei ist zu beachten, dass QPUs einen grundlegend anderen physikalischen und technologischen Aufbau haben. Sie werden mit halbleitertechnischen Prozessen hergestellt, haben aber eine andere Funktionsweise als Binärrechner oder gewöhnliche Mikroprozessoren.

Quantencomputer mit neuartigen Quantenprozessoren sind seit den 2010er Jahren in Entwicklung und gelten als Schlüsseltechnologie. Seit den 2020er Jahren werden einzelne CPUs mittels spezieller KI-optimierten Co-Prozessoren oder Recheneinheiten für moderne KI-Anwendungen ausgestattet, um diese Anwendungen zu unterstützen. Fachleute schätzen, dass KI-Anwendungen den Halbleitermarkt auf einen Gesamtumsatz von über einer Billion Dollar bringen werden.[27] Siehe auch die „KI-Ära“.

Design und Herstellung

Ein Mikroprozessor ist ein Prozessor, bei dem alle Funktionen eines Computerprozessors auf einem Silicium-Mikrochip vereinigt sind. Grundlegend ist die Herstellung in drei Teile aufgeteilt:

Design

Der in einer Hardwarebeschreibungssprache vorliegende logische Entwurf des Mikroprozessors wird an einen eigenen Hochleistungsrechner übergeben, der die Leiterbahnen „routet“, d. h., eine optimale Anordnung mit möglichst wenig Transistoren sowie minimaler Verlustleistung zu ermitteln sucht (auch bekannt als: Technology Binding oder Technology Mapping). Da diese Routingprobleme NP-vollständig sind, werden meist nur Näherungslösungen gefunden, die sich im Detail noch erheblich verbessern lassen.

Zu den Standardarchitekturen einer CPU zählen der CISC- oder RISC-Befehlssatz. Im ersteren Falle ist ein Mikroprogrammsteuerwerk notwendig, welches Mikrocode ausführt. Dieser Mikrocode wird von Herstellern (meist optimal) an Randbedingungen wie Cachegrößen, Speicherbandbreite und -latenzen sowie die internen Funktionseinheiten angepasst werden. Endbenutzer können den Mikrocode in der Regeln nicht verändern.

Fertigung

Aus diesen Leitbahnberechnungen werden Fotomasken erstellt, die mittels Fotolithografie zur Belichtung von Wafern eingesetzt werden, die anschließend geätzt werden. Die Fertigung eines heutigen Mikroprozessors umfasst weit über 100 Prozessschritte, in deren Verlauf bereits ein einziger Fehler den gesamten Prozessor unbrauchbar machen kann. Dabei kommt der halbleitertechnischen Fotolithografie eine Schlüsselrolle zu, vgl. auch die EUV-Technologie.

In der Endkontrolle werden die Prozessoren schließlich hinsichtlich ihrer Taktfestigkeit klassifiziert, wobei anhand eines für jeden Prozessortyp individuell entwickelten Testprogramms physikalische Eigenschaften wie Signalpegel bei verschiedenen Takten überprüft werden. Hierbei wird besonders auf laufzeitkritische Signalwege auf dem CPU-Die geachtet, um sogenannte Speed Paths (Fehler durch Signalverzögerungen) zu verhindern.

Seit den 1990er Jahren findet die Fertigung von Halbleitern verstärkt im asiatisch-pazifischen Raum statt, wobei Auftragsfertiger oder Fertigungsdienstleister zum Einsatz kommen. Teilweise wird auch die Entwicklung ausgelagert bzw. es wird mit Entwicklungsstandorten in anderen Zeitzonen und auf anderen Kontinenten zusammengearbeitet.

Geräte und Anwendungsfälle

Moderne Mikroprozessoren werden aufgrund ihrer unterschiedlichen Anwendungsbereiche für einen jeweiligen Einsatzbereich entwickelt. Beispielsweise müssen industrielle Mikroprozessoren (meist in Gestalt von Mikrocontrollern) für Luft-, Raumfahrt und Wehrtechnik besonders hohen Temperaturen und Strahlungsexposition im laufenden Betrieb fehlerfrei standhalten. Diese Prozessoren werden auch Strahlungsgehärtet („radiation hardened“) gebaut. Siehe auch Kosmische Strahlung, ionisierende Strahlung und elektromagnetischer Impuls (EMP).

Mikrocontroller haben im Vergleich zu Mikroprozessoren hingegen häufig nur wenige Register und einen eingeschränkten Befehlssatz. Ein kleiner Mikroprozessor ist jedoch Teil eines Mikrocontrollers und für einfache Anwendungen, wie die Steuerung einer Maschine, reicht diese Funktionalität jedoch häufig aus. Auch lassen sich höhere Funktionen durch wenige Basisoperationen implementieren, beispielsweise Multiplikation durch Verschieben und Addieren (siehe Russische Bauernmultiplikation). Dafür integrieren Mikrocontroller vielfältige für Steuerungs- und Kommunikationszwecke erforderliche Peripheriefunktionen, Programm-, Daten- und Arbeitsspeicher mit auf dem Chip. Sie werden daher für industrielle Anwendungen eingesetzt, z. B. auch in Fahrzeugen.

Im Laufe der Zeit vergrößerte sich aufgrund der immer besser werdenden Halbleitertechnik die Anzahl der vom Prozessor unterstützten Befehle. Die in den 1980er Jahren entwickelten 386er CPUs waren die ersten 32-Bit-Prozessoren der Intel 80x86-Familie. 32-Bit-CPUs für PC-Anwender sind jedoch aufgrund der mittlerweile ungenügenden Adressierung von maximal 4 GiB Arbeitsspeicher (RAM) obsolet. Heutzutage stellen 64-Bit-Prozessoren mit großem Abstand den größten CPU-Anteil. Softwareentwickler haben außerdem das Programmieren von 32-Bit-Varianten ihrer Applikationen in vielen Fällen eingestellt. Im Jahr 2005 hat Microsoft mit Windows XP x64 ein Betriebssystem für 64-Bit-Systeme auf den Markt gebracht. Betriebssysteme für Anwender, wie Windows 11, gibt es ausschließlich mit 64-Bit-Architektur.[28]

CPU-Bausteine und Variationen

Im Zuge immer höherer Integrationsdichten und moderner Halbleiterprozesse haben die Entwickler von CPUs weitere Funktionen in die CPU-Hardware integriert. Zu den Einheiten, die früher als separate Chips angeschlossen werden mussten und im Laufe der Zeit in die CPU selbst integriert werden konnten, zählen:

Zu beachten ist, dass CPUs als System aus anderen Komponenten als andere ICs (auch spezialisierte Prozessoren) aufgebaut sind. Mikrocontroller hingegen besitzen mindestens eine CPU und weitere IC-Bausteine in einem Chip.

Leistungsmanagement

Evolution der Rechenleistung

Technisch versucht man seit den 1980er Jahren, die Rechenleistung einer CPU zu erhöhen und gleichzeitig die Stromaufnahme und Wärmeverluste zu minimieren. Dabei spielen kleinere Strukturgrößen eine wichtige Rolle, da die Schaltspannungen sinken. Das Mooresche Gesetz neigt sich jedoch seit den 2000er Jahren dem Ende zu.[30][31] Die Entwicklung der Mikroelektronik und Halbleitertechnologie wurde bisher von der International Technology Roadmap for Semiconductors (ITRS) begleitet. Heute übernimmt diese Funktion der Nachfolger International Roadmap for Devices and Systems (IRDS).

Es werden zwar immer noch mehr Transistoren dank FinFET und Gate-All-Around FET (GAAFET)-Technologie[32][33] und mit EUV-Lithographie in Hochleistungs-CPUs integriert, jedoch führte eine steigende Leistungsdichte aufgrund thermischer Grenzen zu einem Plateau des Stromverbrauchs, was wiederum dazu führte, dass die Taktraten (englisch cycle rate oder englisch clock rate in Hz) stagnierten. Beispielsweise kann die Technologieverkleinerung nicht mehr so einfach die gestiegenen Leckströme und den damit verbundenen höheren Stromverbrauch ausgleichen.[34]

Intel bezeichnet den Kompromiss zwischen Geschwindigkeit und Energieverbrauch als „Grundsatz der Mehrkernprozessoren“ und entwickelt und produziert seit einigen Jahren schon Multiprozessoren.[35] Die Rechenleistung eines modernen Mikroprozessors (CPU) ist seitdem nicht mehr nur anhand der Taktfrequenz, sondern besser anhand der Instruktionen pro Sekunde (IPS) mess- oder vergleichbar.

Benchmarking

Das Benchmarking, also die Messung der Rechenleistung eines Mikroprozessors ist seit einigen Jahrzehnten eine eigene Fachwissenschaft. Das Unternehmen Standard Performance Evaluation Corporation (SPEC) ist dabei einer der Herausgeber verschiedener Benchmarking Software, z. B. SPECint. Weitere bekannte Instrumente sind Coremark und Dhrystone. Gängige Werkzeuge für Endanwender sind CPU-Z oder Geekbench. Im Bereich des Supercomputing kommen noch weitere Messtechniken, z. B. LINPACK, zum Einsatz. Die Ergebnisse finden sich z. B. in der TOP500-Liste. Weitere bekannte Software, welche zum Benchmarking von Computern oder auch CPUs genutzt werden, sind die Tools PCMark, Cinebench und AIDA64.

Taktraten

Die Schalt- oder Taktfrequenz der Geräte ist je nach Modell heutzutage variable geregelt, besitzt jedoch einen halbleiterprozess-vorgegebenen Höchstwert. Taktraten im einstelligen GHz-Bereich sind seit vielen Jahren der Standard, wobei übliche Mikroprozessoren für PCs im Bereich von (pauschal) 1 GHz bis 5 GHz arbeiten. Mikroprozessoren als Teil von Mikrocontrollern takten dagegen etwa zwischen (pauschal) 32 und 800 MHz.

Wird durch einen Eingriff des Benutzers die Taktrate eines Prozessors absichtlich verändert oder beeinflusst, kann sich der Stromverbrauch stark verändern. Wird die Schaltfrequenz erhöht, spricht man von einem Übertakten. Auch ein reduzieren der Taktrate ist möglich durch ein sogenanntes Undervolting.[36] Siehe auch Clock-Gating. Dabei wird die Spannung für die CPU reduziert und der Erhitzungsprozess verzögert sich bzw. wird permanent begrenzt. Laut Intel kann die Hälfte des Stromverbrauchs eingespart werden, wenn die Taktfrequenz eines einzelnen Kerns um 20 % reduziert wird. Dabei nimmt die Gesamtleistung des Systems nur um 13 % ab.[35] In beiden Fällen (Über- und Untertakten) sind diese Einstellungen innerhalb eines BIOS teilweise möglich. Diese Eingriffe gefährden jedoch die Garantieansprüche, wenn das Gerät neu ist.

Mehrkernprozessoren

Mehrkernprozessoren, auch genannt Multiprozessoren, haben seit Mitte der 2000er Jahre weite Verbreitung gefunden. Der kleinste Mehrkernprozessor hatte zwei Kerne. Man spricht auch von einer Dual-CPU (vgl. Intel Core 2 ab 2006), Quadcore-CPU usw. hat aber physikalisch nur einen CPU-Baustein.

Bei den modernen Mehrkern-CPUs unterscheidet man außerdem zwischen echten und logischen Kernen. Moderne CPUs besitzen ab den 2020er Jahren zwischen 10 und 20 logischen Kernen.[30] Somit stehen einem Anwender mehrere einzelne (jedoch zusammengeschaltete) Prozessoren in einem Gerät (einer CPU) zur Verfügung. Die Anzahl der Kerne ist jedoch nicht immer symmetrisch. Beispielsweise können 16 echte Kerne in 6+8+2 optimierte Einzelkerne aufgeteilt sein zur Leistungsanfragen, hohe Effizienz, oder für Verwendung bei begrenzter Energieverfügbarkeit. Für diese echten Kerne stehen 22 logische Kerne (Hardware Threads) bereit. Die Mehrkerne werden vom einem CPU-Managementsystem automatisch von einer Basisfrequenz heruntergetaktet (geregelt oder verwaltet), um weniger Strom zu verbrauchen, falls keine intensiven Anwendungen laufen.[37][38]

Seit den 2010er Jahren spielt zudem die vertikale Integration von Mehrkernsystemen eine überragende Rolle.[39] Modernste Mehrkern-CPUs versucht man mittels Chiplets und 3D Packaging-Technologie weiter auf einem Chip bzw. in einem Gehäuse zu integrieren.[40][41] Dafür wurde auch der Universal Chiplet Interconnect express (UCIe) Standard geschaffen, um die einzelnen Bausteine zu verbinden.[42]

Spezielle Mehrkernsysteme

Nur in Spezialfällen existieren Systeme mit physikalischen Mehrkernen oder CPUs auf einer Hauptplatine. Siehe auch die Parallelrechner, welche z. B. CPUs und GPUs ansteuern. Ein weiterer Spezialfall sind Mehrkernprozessoren die isoliert arbeiten, d. h. eine Redundanz ermöglichen.[43] Diese sicherheitsoptimierten Prozessorsysteme spielen für sicherheitskritische Anwendungen eine entscheidende Rolle. Ein Beispiel sind Steuergeräte zur Motorsteuerung, z. B. der Infineon TriCore Mikrocontroller/Mikroprozessor. Siehe auch die Themen Fehlertolerantes Regelsystem, Lockstep und Funktionale Sicherheit.

Des Weiteren sind Grafikprozessoren (GPUs) zu erwähnen, die architektonisch deutlich mehr, jedoch kleinere Rechenkerne auf einem Die bieten als CPUs. Aus diesem und anderen Gründen sind die Geräte seit den 2010er Jahren für Fließkommaberechnungen (siehe auch IEEE 754) und andere Anwendungen aus dem Supercomputinge wichtig geworden. Moderne GPUs werden als Schlüsseltechnologie für KI-basierte Technologien benötigt. Es existieren auch Einzelanfertigungen von Mehrkernsystemen, wie z. B. die Tensor Processing Unit (TPU).

Mobile Mikroprozessoren

Bei mobilen Geräten, z. B. Smartphones oder Tabletcomputern (vgl. auch Neue Medien) ist noch geringer Stromverbrauch eine entscheidende Charakteristik, da die Geräte (im freien Einsatz, also ohne Netzstrom) ihre Energie aus Lithium-Ionen-Batterien beziehen. Für diese Geräte kommt meist nur eine RISC-Architektur und optimiert Taktraten im unteren GHz-Bereich in Frage. Im Jahre 2006 wurde von der Firma ARM der erste kommerzielle ungetaktete, asynchrone Prozessor vorgestellt, der ARM996HS. Da er ohne Taktung auskommt, weist ein asynchroner Prozessor eine im Hochfrequenzbereich geringere und wesentlich weniger prägnante Abstrahlung auf und verbraucht während Prozesspausen keinen nennenswerten Strom.

Die weiterentwickelten ARM-Architekturen sind seit den 2010er Jahren auf einer Vielzahl moderner, mobiler Geräte verwendet. Intel CPUs sind typischerweise nicht in Smartphones zu finden. ARM liefert das Intellectual Property (IP), also die lizenzierbare Architektur für Mikroprozessoren und Mikrocontroller, stellt die Prozessoren jedoch selbst nicht her im Sinne des Fabless-Modells.

Energiemanagement

Mikroprozessoren (im Gegensatz zu Mikrocontrollern) sind speziell für anspruchsvolle Leistungsaufgaben konzipiert und benötigen dafür elektrische Energie (Strom). Dies gilt insbesondere für Mikroprozessoren in PCs und Großrechnern. Wenn diese Systeme zu einem Supercomputer, einem Rechenzentrum aus Servern oder einer Serverfarm zusammengesetzt werden, liegen die elektrischen Energieanforderungen im Bereich von mehreren Kilowatt (KW) bis zu einigen Megawatt (MW). Als Benchmark spricht man auch von installierter Leistung in MW. Beispielsweise sind in dem Bundesland Hessen rund 1 GWe an Rechenzentren verbaut.[44]

Diese System sind meistens ganzjährig, sieben Tage und 24 Stunden in Betrieb, da sie eine hohe Verfügbarkeit garantieren müssen. Einzelne Mikroprozessoren werden jedoch auch stromsparend ausgelegt, z. B. für Anwendungen in Laptops (vgl. auch Notebookprozessor). Mikroprozessoren sind außerdem in vielen ihrer Funktionen, teils patentierten Subtechnologien, optimiert. Ein Beispiel ist die Turbo-Technologie von Intel.

Wie oben erwähnt, besitzen immer mehr Computer eine leistungsstarke Grafikkarten mit Grafikprozessoren (GPUs). GPU-basierte Server verbrauchen mehr als das Zehnfache der Leistung herkömmlicher CPU-basierter Server, was zu einem starken Anstieg des Stromverbrauchs führt. Diese Geräte sind jedoch für KI-basierte Anwendungen eine Zukunftstechnologie.[30]

Hochleitungsprozessoren (CPUs) für Heim-PCs benötigen im Last- oder Vollbetrieb (pauschal) zwischen 100 und 300 Watt (elektrisch), je nach Nutzung. Letztere Tatsache spielt jedoch bei Supercomputer eine untergeordnete Rolle, da hier auf andere Leistungsparameter geschaut wird, z. B. die Instruktionen pro Sekunde (IPS), Instruktionen per Befehl (IPC) oder die Gleitkommaoperationen pro Sekunde (FLOPS). Insbesondere die IPS dienen aufgrund stagnierender Taktfrequenzzuwächse in Zyklen (Hz), oder Taktraten der CPU, als wichtiger Benchmarkwert. Dies trifft vor allem auf Mehrkernprozessoren zu.

Für industrielle Anwendungen, Maschinen und andere Geräte, existieren sogar eigene Energiemanagement-Bausteine, welche mit Mikroprozessoren oder Microcontrollern oder als Zusatzbausteine integriert werden. Sie verwalten die Ströme, Spannungen und andere Parameter des Systems.[45][46]

Wärmemanagement

Prozessorkühlkörper für einen Sockel 775 (Intel Pentium D) mit sichtbaren Wärmerohren (links) aus leitfähigem Kupfer im Vergleich zu einem Miniaturkühler für den Sockel 7 (Intel Pentium 1 MMX). (2006)

Mikroprozessoren besitzen, neben einem umfangreichen und eigenen Leistungsmanagement, komplexe Überwachungsfunktionen, die die Geräte vor Überhitzung durch Abschaltung schützen. Dieses Energiemanagement ist Teil einer CPU. Generell muss die erzeugte thermische Wärme, verursacht durch hohe Taktraten im MHz oder GHz-Bereich, abgeleitet werden (Konvektion). Aus Sicht der CPU spielt dabei auch die Die-Größe eine Rolle, sowie das Chipgehäuse, welches die Wärme nach außen gibt, bzw. eine Fläche bereitstellt, welche zugleich der Kontakt zu einem Kühlsystem ist. Als Wärmetransportmedium dient ein Fluid: entweder Luft (Prozessorkühler) oder Flüssigkeit (Wasserkühlung). Nur in wenigen Spezialfällen, können (oder sollten) CPUs oder GPUs passiv gekühlt werden.

Moderne CPUs werden – je nach Auslastung – während des Betriebs sehr heiß. Je nach Modell und Hersteller werden pro Quadratzentimeter Verlustleistungen von über 100 Watt (thermisch) erreicht Zum Vergleich: Die 18-cm-Kochplatte eines üblichen Elektroherds erreicht gerade einmal 7–10 W/cm². CPUs dürfen aber, wie alle Halbleiter, bestimmte Betriebstemperaturen nicht überschreiten.

Die Überwachung erfolgt dabei durch ein CPU-internes Energie- und Wärmemanagementsystem. Werden Grenzwerte überschritten oder Fehlfunktionen erkannt, kann es zur Notabschaltung der CPU kommen, um eine Zerstörung des Chips zu vermeiden. Übliche Grenztemperaturen für den Betrieb liegen zwischen 60 und 90 °C. Temperaturen über etwa 125 bis 135 °C führen zu irreversiblen Schäden. Prozessoren müssen also zwingend gekühlt werden, wobei ein gewisser Sicherheitsabstand zu den vom Hersteller angegebenen Höchstwerten erstrebenswert ist, d. h. die Wärmeabfuhr sollte für den Lastbetrieb sichergestellt werden.

Praktische Wärmeabfuhrverfahren oder CPU-Kühlung

Der gängigste Weg, die Kühlung einer CPU sicherzustellen, ist die Montage eines Kühlkörpers mit Lüfter, auch bekannt als Prozessorkühler. Der verrippte Kühlkörper aus wärmleitfähigem Aluminium oder Kupfer (vgl. das Wiedemann-Franzsches Gesetz) vergrößert dabei die Fläche, die zur Wärmeabgabe beiträgt, um ein Vielfaches. Dabei spielt die Technologie der Wärmerohre eine entscheidende Rolle. Der Lüfter soll für einen zügigen Abtransport der Verlustwärme sorgen. Zwischen Prozessor und Kühlkörper wird zusätzlich Wärmeleitpaste oder ein Wärmeleitpad eingesetzt. Diese Mittel helfen, den Wärmeübergang zu verbessern, da Unebenheiten oder Oberflächenrauheit zwischen dem Gehäuse des CPU-Chips und der Kontaktfläche des Kühlkörpers kleine Lufteinschlüsse hinterlassen (Luft ist ein schlechter Leiter oder Isolator), welche den Wärmetransport verringern.

Die Bemessung der Kühlung erfolgt häufig nicht nach der theoretisch maximal möglichen Verlustleistung, sondern aus Kostengründen nach der Thermal Design Power (TDP), die deutlich niedriger liegt und eine praktische Angabe des CPU-Herstellers ist. Prozessoren werden mit dieser thermischen Leistungsangabe, der TPD, angeboten, welche z. B. zwischen 60 und 160 Watt (thermisch) liegt.

Luftkühlung

Als Lüfter für die CPU werden fast ausschließlich Axiallüfter mit Durchmessern zwischen 40 und 140 mm eingesetzt. Diese Geräte werden auf der Hauptplatine angeschlossen und sind elektronisch geregelt. Damit kann die Drehzahlen angepasst werden oder passt sich nach Temperaturmessung selbst an, d. h. erhöht sich bei höheren Temperaturen. Luftkühler sind in einer Vielzahl von Computern für Endanwender verbaut. Sie sind der Standard seit den 1980er Jahren.

Wasserkühlung

Auf dem Foto ist ein geöffnetes PC-Gehäuse mit einer sichtbaren CPU (runder Punkt in der Mitte oben) und einer gesteckten Grafikkarte mit Grafikprozessor (GPU) in einem PCI-Port zu sehen. Beide Komponenten werden mit einer Wasserkühlung versorgt, die Schläuche sind erkennbar. Dieses Kühlungsverfahren ist seit den 2010er Jahren für Endanwender zugänglich, da die entsprechenden Kühlsysteme auf dem Markt erhältlich sind. (2022)

Als Alternativen zur Luftkühlung gibt es noch die Kühlung mittels gewöhnlichem Wassers. Dieses Verfahren ist beliebt für CPUs mit hohen Leistungsanforderungen oder für einen leisen Betrieb des Computers, falls die benötigte Pump leiser ist als ein geregelter CPU-Luftkühler. Als erster Computerhersteller verbaute Apple in ihren Power Mac G5-Computern eine standardisierte Wasserkühlung.

Moderne Wasserkühlsysteme können teilweise auch den Arbeitsspeicher, die Grafikkarte mit Grafikprozessor (GPU) oder andere Komponenten auf der Hauptplatine kühlen. Man unterscheidet außerdem:

  • All-in-one-Wasserkühlung, heute als Komplettsystem für Endverbraucht (PC-Wasserkühlung)
  • Custom-Wasserkühlung (Abstimmung durch „Hard Tubing“)
  • Sonderlösungen (andere Fluide), beispielsweise in der Industrie oder Gaming-PCs

Ob eine Wasserkühlung in Frage kommt, sollte nach den Anforderungen des PC-Benutzers erörtert werden.

Flüssigstickstoffkühlung

Eine spezielle Methode der Kühlung ist die Flüssigstickstoffkühlung, die allerdings extrem aufwändig ist. Um flüssig zu sein, muss der Stickstoff auf −196 °C gekühlt werden, was große Kühlaggregate erfordert. Wegen der sehr niedrigen Temperatur im Rechner müssen Hauptplatine und andere Objekte wieder von der Rückseite erwärmt werden, damit sie ordnungsgemäß funktionieren. Diese Technik der Wärmeabfuhr ist nur mit hohen Aufwänden realisierbar. Die Betriebs- und Instandhaltungskosten sind meist sehr hoch und für die erhöhten Kosten können beispielsweise leistungsstärkere CPUs in Betracht gezogen werden.

Die Flüssigstickstoffkühlung ist jedoch als kurzfristige Lösung weiterhin von Interesse. Sie wird z. B. benutzt, um neue Rekorde (Benchmarks) beim Übertakten zu erreichen. In diesen Fällen ist ein sicherer Umgang mit flüssigem Stickstoff für die eigene Sicherheit wichtig und zu beachten.

Dazu sind auch keine Kühlaggregate notwendig. Der Stickstoff wird in diesen Fällen einfach aus der Flasche nachgefüllt und verdampft. In diesem Fall entfällt auch die Erwärmung der Rückseite, weil die Komponenten während der kurzen für einen Rekordversuch nötigen Zeit meistens auch ohne derartige Maßnahmen funktionsfähig bleiben.

Hinweise zur CPU-Kühlung

Allgemein gilt es als nicht empfohlen, eine CPU auf weniger als +10 °C herunterzukühlen, da sonst die Kosten für das dazu notwendige Kühlverfahren zu hoch werden. Auch haben alle elektronischen Bauteile eine Mindestbetriebstemperatur und an zu stark gekühlten Bauteilen kann sich Kondenswasser niederschlagen, was unbedingt vermieden werden muss.

Experimentelle Verfahren zur CPU-Kühlung

  • Einzelne Hersteller verwenden auch Kompressionskältemaschinen. Diese funktionieren ähnlich wie ein Kühlschrank: Ein Kühlmittel wird stark unter Druck gesetzt und die dabei entstehende Wärme abgeführt, beim Ausgleich auf Normaldruck kühlt es weiter ab und kühlt so auch seine Umgebung, sprich Prozessor oder andere Geräte. Diese Lösung wird vor allem bei übertakteten Workstations verwendet, hat aber den Nachteil, auch die Geräuschkulisse eines Kühlschranks zu erzeugen.
  • Eine weitere Möglichkeit zur Kühlung einer CPU bietet das Peltier-Element. Auch hier ist die Gefahr der Bildung von Kondenswasser gegeben. Zudem erzeugt ein Peltier-Element wegen des geringen Wirkungsgrades mindestens noch einmal die gleiche Verlustleistung wie der Prozessor selbst, die zusätzlich abgeführt werden muss. Die „warme“ Seite muss also auch hier per Wasserkühlung oder Kühlkörper mit Lüfter gekühlt werden.
  • Auch durch den Einsatz einer Ölkühlung kann Wärme abgeführt werden, im PC-Bereich wird dies allerdings bisher nur im experimentellen Umfeld durchgeführt. Für eine Ölkühlung werden meistens keine speziellen Lüfter oder Kühleinrichten an der CPU installiert, sondern einfach das gesamte Motherboard mit installiertem Lüfter in eine Wanne voll Öl getaucht. Hierzu bietet sich nicht leitfähiges, reinstes Mineralöl an.

Weitere Themen zu Mikroprozessoren

Engineering Samples / Customer Samples

Die ersten von einem Hersteller produzierten CPUs werden, ähnlich einem Prototyp, als „Engineering Sample“ oder „Confidential CPU“ an ausgewählte Firmen oder Tester verteilt. Es handelt sich grundsätzlich um voll funktionsfähige Prozessoren, die dem späteren Endprodukt meist in nichts nachstehen. Solche CPUs sind üblicherweise im Handel nicht erhältlich. Erkennbar sind solche CPU-Versionen am Kürzel „ES“ oder dem Aufdruck „Confidential“.

Zudem wurden, zumindest in der Vergangenheit von Intel, Prozessoren und ganze Chip-Sätze in „University-Kits“ abgegeben. Die dort enthaltenen Chips hatten den Aufdruck „CS“ und waren in der Regel am Keramikgehäuse beschädigt, vielfach war der Aufdruck schlecht (verrutscht, verschmiert, doubliert). Zu beachten ist, dass die Buchstabenkombination ES oder CS nicht immer Engineering oder Customer Sample bedeuten muss, oftmals ist es auch der Batch-Code oder eine Revisionsbezeichnung.

„CPU Mutanten“

Der Laptopprozessor Intel Core i7-1280P auf einem mATX-Mainboard für Desktop-PCs (2024)

Neben verifizierten CPU-Modellen vom Originalherstellern gibt es auch Prozessoren, die der Profi „Mutanten“ nennt. Hierbei wird ein Mikroprozessor für eine andere Plattform modifiziert. Da Mobilgeräte und Desktop-PCs verschiedene Sockeltypen und Spezifikationen verwenden, müssen bspw. Mobil-CPUs an Desktop-PCs angepasst werden. Um Inkompatibilitäten abzubauen, zu optimieren, und mögliche Restriktionen aufzuheben, kann auf ein geflashtes BIOS oder speziell angefertigte Mainboards zurückgegriffen werden, die dementsprechende Einstellungsmöglichkeiten bieten. Derartige Eingriffe können bei nicht fachgerechter Behandlung zu Computerfehlern oder im Extremfall zu Hardwareschäden führen, die nicht von Herstellergarantien gedeckt sind.[47]

Fehler und Sicherheitslücken

Neben den astronomischen Kosten für die Entwicklung bzw. dem Design, haben die Aufwände für den Test, Verifizierung und Validierung von moderner Prozessoren gewaltige Ausmaße angenommen. Trotz erheblicher Anstrengungen können nicht alle Fehlersituationen vor der Auslieferung überprüft oder gefunden werden. Der letzte in allen Funktionen (und Fehlern) vollständig verifizierte x86-Prozessor war der Intel 80286.

CPU-Hersteller liefern daher sogenannte Errata-Listen, in denen entdeckte Fehler verzeichnet werden. So musste beispielsweise Intel den berühmt-berüchtigten FDIV-Bug in frühen Pentium-CPUs eingestehen, der auf mehrere fehlende Einträge in einer internen Lookup-Tabelle der FPU zurückzuführen ist. Weitere Probleme betreffen die Sicherheit, z. B. die Sicherheitslücken Spectre oder Meltdown, welche 2017 entdeckt wurden. CPUs werden durch Spezialisten auch in Teilen Reverse Engineered.

Kontroversen

Mikroprozessoren bzw. deren Technologie sind Schlüsseltechnologien des 21. Jahrhunderts. In einer seit den 1990er Jahren zunehmend globalisierten Welt nehmen sie eine zentrale Rolle ein, da sie für einen breiten Endkonsumentenmarkt zugänglich wurden, vgl. auch die Entwicklungen der New Economy und danach. Der Markt der Halbleitertechnologie ist seit jeher von Fusionen und Akquisitionen sowie einem extremen Preis-Leistungs-Wettbewerb geprägt. Moderne Halbleiterfabriken (Fabs), speziell für CPUs und andere ICs, müssen bei hoher Auslastung eine hohe Ausbeute (Yield) in hoher Qualität produzieren, um wirtschaftlich betrieben werden zu können. Die Investitionen in moderne Fabs liegen im Milliardenbereich und die Produktionskapazitäten wurden aufgrund von Standort und anderen Entscheidungen im asiatisch-pazifischen Raum angesiedelt. Aufgrund zunehmender Krisen – spätestens seit den Anschlägen am 11. September 2001 – treten sicherheitsrelevante Fragen in Bezug auf Halbleiter und Mikroprozessoren auf.[48] Dies gipfelte im Jahr 2023 in einer sogenannten „Chipkrise“ (siehe dort) und einer Vielzahl anderer Ereignisse, die bis in die Ära der KI-optimierten Mikroprozessoren und modernen KI-Anwendungen reichen, welche leistungsstarke Grafikprozessoren (GPUs) benötigen.

Siehe auch

Literatur

Allgemein

  • Ian L. Sayers, Adrian P. Robson, Alan E. Adams, E. Graeme Chester: Principles of Microprocessors. CRC Press, Boca Raton, FL 1991, ISBN 0-8493-8622-5 (englisch).
  • Thomas Beierlein, Olaf Hagenbruch (Hrsg.): Taschenbuch Mikroprozessortechnik. 3. Auflage. Fachbuchverl. Leipzig im Carl-Hanser-Verl, München 2004, ISBN 3-446-22072-0.
  • John D. Crisp (Hrsg.): Introduction to Microprocessors and Microcontrollers. 2nd Auflage. Elsevier/Newnes, Amsterdam Boston 2004, ISBN 0-7506-5989-0 (englisch, archive.org).
  • Viktor V. Korneev, Andrew Kiselev: Modern Microprocessors. 3rd Auflage. Charles River Media, Hingham, MA 2004, ISBN 1-58450-368-8 (englisch, archive.org).
  • Thomas Flik: Mikroprozessortechnik und Rechnerstrukturen. Springer-Verlag, Berlin/Heidelberg 2005, ISBN 3-540-22270-7, doi:10.1007/b137981.
  • Wai-Kai Chen (Hrsg.): The VLSI Handbook (= The Electrical Engineering Handbook Series). 2nd Auflage. CRC/Taylor & Francis, Boca Raton, FL 2007, ISBN 978-0-8493-4199-1 (englisch).
  • Klaus Wüst: Mikroprozessortechnik. Vieweg+Teubner, Wiesbaden 2011, ISBN 978-3-8348-0906-3, doi:10.1007/978-3-8348-9881-4.
  • Antonio González, Fernando Latorre, Grigorios Magklis: Processor Microarchitecture: An Implementation Perspective (= Synthesis Lectures on Computer Architecture). Springer International Publishing, Cham 2011, ISBN 978-3-03100601-2, doi:10.1007/978-3-031-01729-2 (englisch).
  • Jan Friso Groote, Rolf Morel, Julien Schmaltz, Adam Watkins: Logic Gates, Circuits, Processors, Compilers and Computers. Springer International Publishing, Cham 2021, ISBN 978-3-03068552-2, doi:10.1007/978-3-030-68553-9 (englisch).

Spezifisch (RISC, CISC etc.)

  • Barry B. Brey: The Intel Microprocessors: 8086/8088, 80186, 80286, 80386, and 80486. Architecture, Programming, and Interfacing. 3rd Auflage. Prentice-Hall, Englewood Cliffs, NJ 1994, ISBN 0-02-314250-2 (englisch, archive.org).
  • Sivarama P. Dandamudi: Guide to RISC Processors. Springer-Verlag, New York 2005, ISBN 0-387-21017-2, doi:10.1007/b139084 (englisch).
Wiktionary: Mikroprozessor – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen
Commons: Mikroprozessoren – Sammlung von Bildern, Videos und Audiodateien

Einzelnachweise

Related Articles

Wikiwand AI