Grenzen des von neumann prinzips
Grenzen des von-Neumann-Prinzips
Das Prinzip des minimalen Hardwareaufwands bei von-Neumann-Rechnern fand solange seine Berechtigung, wie die Hardwarekosten bei Computern sehr hoch waren und die optimale Speicherauslastung das wichtigste Entwurfsziel war.
Die Kosten spielten jedoch nun nur noch eine geringe Rolle bei der Computerherstellung und durch die einfache Verbindungseinrichtung zwischen Speicher und Prozessor, durch die alle Daten und Befehle transportiert werden mussten, ergab sich ein Engpass, der als von-Neumann-Flaschenhals bezeichnet wird. Die Befehlsausführung im Prozessor lief außerdem wesentlich schneller ab als der Zugriff auf den Speicher gelangen konnte. Auch kam es zu Problemen bei der Ausführung der höheren Programmiersprachen. Diese trennten zwischen Befehlen und Daten, doch von-Neumann-Rechner hatten nur einen Speicher für beide, auch höhere Sprachkonstrukte (z.B.
Prozeduren) oder mehrdimensionale Datenstrukturen (wie Listen oder Bäume) kamen in Konflikt mit der linearen Speicherorganisation. So ergaben sich lange Programmlaufzeiten und, da der Konflikt zwischen Programmiersprache und Systemarchitektur, semantische Lücke genannt, durch Software behoben werden musste, umfangreichere Programme.
Die Probleme und Engpässe des von-Neumann-Prinzips mussten also beseitigt werden und so wurde die parallele Rechnerarchitektur (angewandt bei Transputern) entwickelt. Transputer (ein Kunstwort aus ?trans? und Computer) haben die Möglichkeit, Computersysteme parallel zu schalten, sodass sich die Leistungsfähigkeit aus der Summe aller angeschlossenen Komponenten ergibt. Die Prozessoren finden dabei auf einem normalen Chip Platz. Außerdem sind die sehr schnellen Speicher bei diesen Systemen für Befehle und Daten getrennt.
In den neueren Rechnern seit den Neunzigern, egal ob Pentium, Athlon oder sonstige Rechnersysteme, findet das ursprüngliche von-Neumann-Prinzip keine Verwendung mehr.
Anmerkungen: |
| impressum | datenschutz
© Copyright Artikelpedia.com