Bedeutet das Ende des Mooreschen Gesetzes auch das Ende von Industrie-PCs?

Dipl. Ing. (FH) Mark Schetter, 14.02.2017

Peter Trosien, Chief Operation Officer bei Pyramid Computer, wurde auf ke-next.de über die technischen Veränderungen und zukünftigen Trends von Industrie-PCs in der Industrie 4.0 befragt. Im Interview mit Felicitas Heimann erklärte Trosien, dass die Anforderungen an Industrie-PCs und der Bedarf an Rechenleistung in den nächsten zehn Jahren dramatisch wachsen werde. Peter Trosien mag in Bezug auf die Nachfrage an steigender Rechenleistung Recht haben. Wie aber sehen die Möglichkeiten aus, diese Nachfrage bedienen zu können? Ist der "dramatisch wachsende Bedarf" überhaupt zu decken? Wir zeigen, woran es scheitern könnte und welche Wege aus dem Scheitern herausführen.

Das Mooresche Gesetz: Prognose über das Wachstum der Rechenleistung durch Miniaturisierung

Der Chemiker und Physiker Gordon Moore prognostizierte im Jahr 1965, dass sich die nutzbare Oberfläche und Miniaturisierung der Schaltstrukturen auf einem Mikrochip etwa alle 18-24 Monate verdoppeln würde. Diese als Mooresche Gesetz bekannt gewordene Prognose galt für 50 Jahre als verlässliche Größe in der Computerentwicklung. Durch die Erhöhung der Transistorendichte wurden Computerchips stetig kleiner, leistungsfähiger und zu geringeren Fertigkosten gebaut. Wie Gordon Moore prognostizierte sind die Transistoren und Leiterbahnen bis heute auf wenige Nanometer geschrumpft.

Die Grenzen der Miniaturisierung von Mikrochips

Seit einigen Jahren stößt man in der Computerentwicklung allerdings an die Grenzen des Mooreschen Gesetzes. Zum einen entstehen durch die immer enger verbauten Schaltkreise höhere Temperaturen. Zum anderen kommt man durch die Miniaturisierung in Bereiche der Quantenmechanik. Durch die Unschärferelation wird das Verhalten der Elektronen unzuverlässig und damit auch das der Transistoren. Eine weitere Miniaturisierung ist nur mit erheblichem Entwicklungsaufwand und Kosten zu erreichen. Um den Anforderungen des Marktes nach mehr Rechenleistung dennoch gerecht werden zu können, verfolgen Chip-Hersteller daher neue Ansätze.


"More than Moore” - neue Ansätze zur Steigerung der Rechenleistung


Ein erster Ansatz zur Steigerung der Rechenleistung ohne die Berücksichtigung des Mooreschen Gesetzes liegt darin, anwendungsspezifische Chips zu entwickeln. Bisher wurden die Mikrochips im Allgemeinen verbessert und uniform für diverse Anwendungen eingesetzt. Nun setzt man darauf, für bestimmte Anwendungen passend ausgerichtete Chips zu konstruieren, die in ihrem speziellen Aufgabenbereich höhere Rechenleistung erzielen.
Weitere Ansätze zur Erhöhung der Rechenleistung sind u. a. die Nutzung spintronischer Elemente oder alternativer Trägermaterialien für elektronische Schaltkreise, wie z. B. Kohlenstoffnanoröhrchen. Bei Speicherchips wird der Ansatz der dreidimensionalen Chip-Architektur verfolgt. Die Schaltkreise werden statt wie bisher in einer flachen Bauweise angeordnet, in Etagen übereinander gestapelt. Dieser Ansatz löst aber nur bedingt das Hitzeproblem. Neuromorphe Systeme könnten u. a. im Bereichen der Objekterkennung und Sensorik bessere Ergebnisse als herkömmliche Computerstrukturen liefern. Die Mikrochips werden nach dem Vorbild der neuronalen Struktur des menschlichen Gehirns entwickelt. Neuronale Computer arbeiten energieeffizienter, platzsparender und sind zudem lernfähig. Bestimmte Rechenleistungen, wie z. B. die Suche in extrem großen Datenbanken und die Produktzerlegung sehr langer Zahlen könnten Quantencomputer wesentlich effizienter als klassische Computern lösen.


Wie wird sich das Ende des Mooreschen Gesetzes auf die IPC-Entwicklung auswirken?


1. Chance: Kombinationen zwischen IPCs und smarten Komponenten


Wie Peter Trosien vorhersagt, werden im Bereich der optischen Bildverarbeitung in Zukunft sehr hohe Rechenleistungen verlangt. Hersteller von Industrie PCs und Kameras reagieren auf die Anforderungen und entwickeln innovative Ideen für die Zukunft. Die Smart Camera arbeitet schneller und ist lokal flexibler einsetzbar. Riesige Datenmengen können so aufgenommen und gespeichert werden. Für eine detaillierte Auswertung und Verarbeitung der Daten fehlt es Smart Cameras allerdings noch an Rechenleistung. Bei einer Übertragung der Daten über Schnittstellen kann diese Aufgabe von den leistungsstärkeren Industrie-PCs übernommen und so die Vorteile beider Systeme intelligent und optimal genutzt werden. Je nach Anforderung empfiehlt sich der Einsatz eines IPCs, einer Smart Camera oder einer Kombination beider Systeme.

2. Chance: Steuerungstechnik aus der Cloud


IT und Steuerungstechnik wachsen stetig und untrennbar zusammen. Ein Trend zeigt die Loslösung der Steuerungstechnik von dedizierten Hardwareressourcen hin zur Verlagerung in cloudbasierte Betriebssysteme. Hier gibt es erste Lösungs-Ansätze, wie die aktuell noch begrenzte Kommunikation durch eingesetzte Netzwerktechnik entlang der Übertragungsstrecke massiv beschleunigt werden kann. 
Mit der Standardisierung von 'Time Sensitive Networking' (TSN) nach IEEE802.1 und die Einbeziehung von DetNet werden aktuell entscheidende Grundsteine gelegt, um eine stabile Übertragung von großen Datenmengen in Echtzeit zu realisieren. Dabei werden jetzt schon Zykluszeiten von einer Millisekunde realisiert.


3. Chance: Das menschliche Gehirn als Vorbild für Neuro-Industrie-PCs


Die Komplexität der Informationsverarbeitung des menschlichen Gehirns beruht nicht auf hoher Geschwindigkeit und Rechenleistung einzelner Elemente, sondern auf dem Einsatz parallel vernetzten Übertragungselementen. Das menschliche Auge funktioniert z. B. nicht wie eine Digitalkamera, die ganze Einzelbilder aufnimmt. Die Stäbchen und Zäpfchen sind mit Neuronen verbunden, die nur bestimmte Information weiterleiten. Tiefer liegende Neuronen im Sehzentrum suchen in diesen Informationen nach bestimmten Mustern und leiten nur diese weiter. 
In der IT-Entwicklung wird dieses Verfahren der Datenverarbeitung erforscht und mit Hilfe von Neurocomputern simuliert. Das Verknüpfen von Computern zu Clustern, die aus einer gigantischen Anzahl von Einzelrechnern (Neurochips) bestehen, könnte schon bald die Grundlage für sogenannte Neuro-Industrie-PCs bilden und die Verarbeitung und Analyse von großen Datenmengen ermöglichen. Derzeit steht man hier noch vor der Herausforderung, Netzwerke von wirklich biologischer Komplexität zu simulieren. Die Entwicklung neuer Architekturen zum Verarbeiten von Informationen, in denen Eigenschaften wie Fehlertoleranz und Energieeffizienz bereits "konzeptionell" eingebaut sind, steht hier im Focus der Forschung. Für die zukünftige Nutzung neuer Bauelemente, etwa molekulare Schalter oder Kohlenstoff-Nanoröhren, werden solche Konzepte unter Umständen sehr bedeutend sein

Wie IT Giganten die Entwicklung von Neurocomputern unterstützen und beschleunigen


Facebook-Gründer Mark Zuckerberg sagte: "Ich glaube, wir werden einmal einander unsere Gedanken mit Hilfe von Technologien übermitteln können.” 2016 rief der IT-Riese eigens dafür die Abteilung Building 8 ins Leben. Die Abteilung ist mit der Entwicklung von Neurocomputer-Technologien zur Gedankenübertragung beauftragt. Facebook ist damit aber nicht das einzige großen IT-Unternehmen, das die Entwicklung von Neurocomputern voran treibt. Auch Google forscht auf spielerischer Ebene mit seiner Tochter DeepMind im Bereich Neuronaler Computer und Künstliche Intelligenz. 2016 besiegte das Computerprogramm AlphaGo z. B. den GO-Meister Lee Sedol.

Fazit: Das Mooresche Gesetz bedeutet nicht das Ende der Industrie-PC-Entwicklung


Wie Trosien richtig erkannte, wird es in den nächsten zehn Jahren einen stetig steigenden Bedarf nach immer höherer Rechenleistung geben. Die Grenzen des Mooreschen Gesetzes sind erreicht und die Miniaturisierung von Computerchips bringen zwar Problematiken wie z. B. zu hohe Temperaturen oder Unzuverlässigkeit von Schaltkreisen durch Unschärferelation mit sich. Damit ist die Chipentwicklung aber nicht am Ende. Die Industrie liefert neue Ansätze, wie z. B. die Prozessor-Spezialisierung, der Einsatz von alternativen Trägermaterialien, spintronische Elemente, Quantencomputer oder grundlegenden neue Denkansätze in der Architektur von Computerchips, wie z. B. leistungsfähige Neurocomputer, die das menschliche Gehirn als Vorbild haben und riesige Datenmengen in Zukunft schneller verarbeiten könnten.