sysiphus.de

In a world
without
walls and fences
who needs
Windows and Gates?

Rechner von der Stange

Warum der IBM-kompatible PC mit Microsoft-Betriebssystem heute eigentlich ein Dinosauriersystem ist.

Es gibt noch andere Computer außer PCs?

Microsoft, IBM und der erste PC

Die Softwarefirma Microsoft wurde 1975 von Bill Gates und Paul Allen während ihres Studiums gegründet. Mit einer eigenen Variante der Programmiersprache BASIC schrieben die beiden ihren ersten Kleinerfolg - von einem großen Durchbruch kann man aber nicht unbedingt reden. Gates und Allen schrieben auf kleinen Bastelrechnern ihre Anwendungen, Kleincomputer wurden damals oft nur in Garagen selbst zusammengebaut.

IBM stand um 1980 herum in den USA in einem Monopolprozeß und kam nur ganz knapp um ein Splitting IBMs in mehrere Firmen herum. IBM war primär am Vertrieb seiner Großrechner interessiert, doch diese verkauften sich nicht gut genug - einfache und günstige Terminals fehlten, die an die Großrechner angeschlossen wurden und zur Dateneingabe und -Abfrage dienten. Die damals günstigen Einzelrechner waren leider nur die in Garagen gebauten Kleincomputer oder verschiedene Systeme, die nicht wesentlich über Videospiele hinausgekommen waren, die von IBM gebauten Terminals zu teuer für einen richtigen Erfolg.

1980 entwickelte der damalige Fast-Allein-Anbieter von Großrechnern einen einfach aufgebauten Rechner, der über eigene Rechenleistung verfügte und so als Terminalrechner an die IBM-Großrechner angeschlossen einen Teil der Aufgaben selbst erledigen sollte: den IBM-PC.

Prozessorfrage: Motorola oder intel?

1980 existierten gerade zwei relativ neue Prozessoren für den Massenmarkt, der 68000 von Motorola und der 8088 bzw. dessen direkter Nachfolger 8086 von intel. intel war damals hauptsächlich als kleiner Zulieferer der Elektronikindustrie bekannt, Motorola als Hersteller von Funksystemen und den dazu notwendigen Bauelementen. intel handelte damals hauptsächlich mit EPROMs, kleinen Schaltungen und einfach aufgebauten Prozessoren. Auch heute arbeiten beide Firmen noch recht ähnlich - intel hat aber die Möglichkeiten großer Werbekampagnen erkannt, mit denen man das eigene Image und Markenbewußtsein der Kunden fördern kann.

Der intel-Chip hatte deutlich weniger Leistung als der von Motorola, war aber auch etwas günstiger - für diesen Rechner fehlte nun allerdings noch ein Betriebssystem.

Microsoft konnte damals günstig an einen Nachbau des damals eigentlich schon veralteten Betriebssystems CP/M kommen, man erweiterte diesen um einen Interrupt zum Betrieb eines Diskettenlaufwerks. Paul Allen und Bill Gates waren gerade im Umbruch - Paul Allen ging zu Digital Research und hatte Bedenken, sich mit dem übermächtigen Branchenriesen IBM einzulassen. Bill Gates hingegen vollzog das Kunststück: er verkaufte IBM MS-DOS 1.0 als Produkt, behielt aber alle Rechte. IBM hingegen dachte wiederum an den Vertrieb seiner teuren Großrechner und wollte die Terminals so günstig wie möglich an den Mann bringen - man legte die Baupläne offen und ließ andere Firmen ebenso "IBM-kompatible PCs" bauen.

Der Erfolg des IBM-kompatiblen PC entwickelte sich jedoch schnell zum Bumerang für IBM: Microsoft wuchs enorm schnell heran und mit der eigenen Rechenleistung hatte man aus den Rechnern keine dummen Terminals gemacht, die nur an einem Großrechner laufen würden, sondern eigenständige Rechner. Für die Großrechner von IBM interessierte sich kaum mehr einer, die PCs waren gegenüber der günstigen Konkurrenz aus Taiwan bei praktisch gleicher Technik einfach zu teuer. Allesamt hatten diese PCs jedoch eines gemeinsam: um vollends IBM-kompatibel zu sein, mußte auf ihnen das Microsoft-DOS sein und gleichzeitig ein intel-Prozessor verwendet werden. In der Anfangszeit gab es mit dem NEC V20 und NEC V30 noch baugleiche Alternativen zu den intel-Prozessoren, die Hersteller und Käufer der PCs achteten aber zunehmend auf "vollständige IBM-Kompatiblität" - und die war eben nur mit einem intel-Prozessor gegeben.

MS-DOS war nicht der Weisheit letzter Schluß, denn bereits zur Entwicklung war es eigentlich veraltet. Die ersten Versionen konnten nicht einmal Verzeichnisse (Ordner) auf Disketten verwalten, erst mit der Version 2.0 kam diese Funktion hinzu. Andere Betriebssysteme kannten Sicherheitskonzepte und boten den Programmen viele Möglichkeiten, die über dem Umgang mit Dateien hinausgingen.

1984

Apple kam 1984 mit dem Apple Macintosh und einer grafischen Benutzeroberfläche auf den Markt (wobei man das Konzept von Xerox übernommen hatte) und bot seinen Anwendern bei den Rechnern "ab Werk" eine einfache Netzwerkfähigkeit und einige Anwendungen, die Standards gesetzt haben - die Funktionalität von "Paint" und "Write" aus Windows 3 legte Apple bereits 1984 in Form von "MacDraw" und "MacWrite" seinen Rechnern bei. Eine Grafikkarte oder eine Maus besaßen die damaligen IBM-PCs nicht: hatte man eine, so arbeitete man an einem sehr aufwendig ausgebauten CAD-Arbeitsplatz.

Apple, Atari, Amiga

Apple verbaute in seinen Rechner die 68000er-Prozessoren von Motorola, ebenso wurden die Prozessoren in den 1985 frischen Rechnern der Atari-ST- und Amiga-Serien verwendet. Während der Atari ST ein System war, das irgendwie wie ein Zwitter aus Macintosh und DOS-Rechner wirkte und für das es ebenso "richtige" Anwendungen gab, setzte man beim Amiga auf viele Spezialchips, die die Programmierer dann hauptsächlich zur Spieleprogrammierung einsetzten.

Auf den Atari-ST-Rechnern sorgten Programme wie die wissenschaftliche Textverarbeitung "Signum!" für Aufsehen, denn Signum war das erste Programm, mit dem Text nicht vom Drucker als reiner Text oder einfache Grafik ausgegeben, sondern vom Drucker als komplexe Grafik in mehreren Durchgängen aufgebaut wurde. Auf diese Weise wurden Texte als Grafiken gedruckt: mit einer besonderen Schärfe, völlig freier Positionierbarkeit und Schriftvielfalt. Sogar die Entwickler des NEC P6 staunten nicht schlecht über die Qualität der Ausdrucke, das Handbuch für den Nachfolger P6plus wurde auch gleich komplett in Signum geschrieben.

1985: Generationswechsel bei intel

intel brachte in dieser Zeit auch den 80286 auf den Markt, der in der Rechenleistung in etwa mit dem fünf Jahre älteren 68000 von Motorola vergleichbar war - durchsetzen konnte sich der 80286 aber nicht im ersten Jahr, sondern erst drei Jahre später. Trotz des "Gleichziehens" hatten die 68000er immer noch viele Vorteile: Der 68000 war wesentlich einfacher und unkomplizierter zu programmieren als die 80x86er-Reihen von intel - flexible Register, einen Assemblercode, der gegenüber intels Assembler wie eine Hochsprache wirkte. Dazu kamen die Zukunftschancen der 68000er-Reihe: bereits 1980 führte man mit dem 68000er eine 16/32-Bit-Architektur ein, wie intel sie erst mit dem 386sx liefern konnte. Der Prozessor ist als 16-Bit-System in den Rechner eingebunden, verarbeitet aber 32-Bit-Befehle. Dies erleichterte später den Sprung zum "echten" 32-Bit-Prozessor enorm, da keine Anwendung an den Prozessor angepasst werden mußte - sie verwendeten die 32-Bit-Befehle ja schon. intel löste das "Problem" über einen speziellen Prozessormodus: im "real mode" verhält sich heute noch ein Pentium III wie ein schneller 16-Bit-Prozessor, erst im "Protected Mode" werden Speicherschutz , echte 32-Bit-Befehle, virtueller Speicher und andere Feinheiten möglich.

Der eigentliche Nachteil an den intel-Prozessoren der 80x86er-Reihe war neben den technischen Unzulänglichkeiten der sehr umständliche Assemblercode. Wer programmiert denn noch in Assembler klingt wie ein besonders guter Einwand, hat aber einen Haken: die Hochsprachen setzen aus dem Programmiercode Assemblercode zusammen. Ist der Assemblercode bereits im "Rohzustand" nicht sehr leicht zu bearbeiten und zu verstehen, so können auch die Programmierer der Programmiersprachen-Compiler hier keine Wunderwerke produzieren. Dadurch ist der Prozessor dann eine Bremse in der Entwicklung von Compilern - und damit dann auch wiederum bei schnellen Anwendungen.

Auch das reine Chipdesign der intel-Prozessoren ist heute immer noch sehr kompliziert, da viele Parts der alten Generationen mit in die neuen Generationen übernommen werden müssen. Motorola hat sich 1992 dazu entschlossen, die 68000er-Reihe (68000, 68010, 68020, 68030, 68040 und 68060) nicht mehr weiterzuentwickeln und stattdessen zusammen mit IBM eine komplett neue Prozessorgeneration zu entwickeln. Die PowerPC-Prozessoren arbeiten mit vereinfachten Befehlssätzen, können diese aber besonders schnell ausführen, alter Ballast in Form von Hardware existiert nicht, dafür haben die Prozessoren genügend Leistung, um ausschließlich in Software die alten Prozessoren der 68000er-Reihe in guter Geschwindigkeit zu emulieren.

Microsoft entwickelte für den Macintosh die Anwendungen Excel und Word, 1985 dann für MS-DOS den Systemaufsatz MS-Windows - der Erfolg für Windows blieb damals jedoch aus: es setzte in der Praxis einen 286er-Prozessor voraus, verbreitet waren aber die 8086er. Die Grafikkarte hatte kaum ein Rechner, eine Maus wurde von vielen als "Spielzeug" abgetan und es gab keine speziellen Anwendungen für Windows, gängige Software lief unter DOS. Aus lizenzrechtlichen Gründen gegen Apple konnten sich die Anwendungsfenster unter Windows nicht einmal überlappen.

Operating System, Second Generation

Parallel entwickelte Microsoft mit dem großen Partner IBM an OS/2, einem Betriebssystem, das die Ansprüche (grafische Benutzeroberfläche, Multitasking, Speicherschutz, ...) der nahen Zukunft erfüllen sollte. Leider baute es auf Prozessortypen auf, die praktisch kaum verwendet wurden und so bekam OS/2 seine erste richtige Chance erst am Anfang der 90er Jahre.

1987 gab es dann die erste "richtige" Windows-Anwendung: eine Portierung des Macintosh-Programms "Excel" unter dem Titel "Excel for Windows". Zwei Jahre später folgte eine Portierung "Word für Windows", um 1991 herum dann eine Weiterentwicklung von Windows, und damit dann zusammen auch der Durchbruch von Windows. Damalige Alternativen wie etwa das fast zeitgleich erschienene GeoWorks für PC hatten gegenüber der Kombination aus Windows und Anwendungssoftware kaum eine Chance - obwohl Windows 3.0 sich ressourcenhungrig verhielt, den Begriff "General Protection Fault" allen Benutzern beibrachte und das nur ein halbes Jahr später erschienene GeoWorks selbst auf einem XT mit 8086er-Prozessor so flott lief wie Windows auf einem 80286er.

Mit Windows 3 gehörten dann VGA-Grafikkarte (640x480 in 16 Farben) und Microsoft-kompatible Maus dann zur Standardausstattung von PCs. Plötzlich war die Maus kein Spielzeug und die grafische Benutzeroberfläche nicht mehr eine "Spielerei". Gleichzeitig stiegen die Hardwareanforderungen zum Rest hin: jahrelang kam man mit langsam fortentwickelten Festplatten und Prozessoren hin - der erste IBM-XT hatte eine 10 MB große Festplatte, die Ende der 80er-Jahre waren 80 MB Festplattenplatz für Serveranwendungen gedacht. Jahrelang hatten die IBM-kompatiblen Rechner zwischen 512k und 640k Speicher gehabt, nun wollte schon das Betriebssystem krampfhaft jeden Speicher haben, den es kriegen konnte. 2 und 4 MB Speicher wurden schnell zum Standard und von den 80 MB der neuen Festplatte wurden auch fast 10 MB von DOS und Windows verfressen.

Der unerwartete Ressourcenhunger brachte allerdings noch weitere Probleme mit sich: bei der Einführung der IDE-Festplatten hatte man in den PC-BIOSen "kompatibel" planen müssen, so daß sich selbst Festplatten, die auf dem äußeren Plattenkreis mehr Daten halten können als auf dem inneren Segment, sich gegenüber den PC-BIOS genauso ausgeben wie eine alte MFM- oder ESDI-Platte und über Cylinder, Köpfe und Spuren angesteuert werden. Bei der ursprünglichen Definition übersah man das Problem, daß man sich dabei in die PC-BIOSe eine Grenze bei 504 MB eingebaut hatte: mehr als 1000 Spuren konnten die Rechner nicht ansteuern. Abhilfe gab es dann über (fehleranfällige) Software und später den "LBA-Modus", in dem die Grenze etwas hochgeschoben wurde - auf 8 GB. Wer heute in einen zwei Jahre alten Rechner eine 16-GB-Platte einbaut und sich wundert, warum diese nur als 8-GB-Platte erkannt wird, darf sich hier bedanken.

Der Windows-Erfolg

Mit dem Erfolg von Windows brach dann auch die Koorperation zwischen IBM und Microsoft in der Softwareentwicklung um OS/2 herum auf: IBM hatte die Rechte an OS/2, Microsoft aber für den Low-End-Bereich mit Windows eine "Alternative". Bei Händlerketten wie Vobis wurden die Käufer dann um 1994 herum mit der neuen Version "OS/2 3.0 Warp" vor die Frage gestellt - Windows 3.11 oder OS/2.

OS/2 konnte damals über den mitgelieferten Zusatz WinOS/2 auch Windows-Programme in einer modifizierten Version von Windows 3.11 ausführen, nach Tests verschiedener Zeitschriften sogar deutlich stabiler als Windows 3.11 dies selbst konnte.

Microsoft reagierte auf die Wahlfrage mit einer Änderung der Lizensierungsverträge. Wie diese genau aussehen, ist ohne Hintergrundwissen aus erster Hand nur Spekulation - es dürfte aber darauf abgezielt haben, daß die vergünstigten Lizenzen für Systemhersteller aberkannt werden würden und so z.B. Vobis tatsächlich rund 250 DM statt 70 DM pro Lizenzkombi "MS-DOS und Windows" hätte ausgeben dürfen - dies ist Spekulation und leider nicht öffentlich beschrieben.

Nach der Version 4.1 kam beim MS-DOS nicht viel neues: neuere Versionen unterschieden sich hauptsächlich in der mitgelieferten Software unter Microsoft-Label. So wurden im Laufe der Zeit ein Festplattendefragmentierer, ein Virenscanner und ein Festplattenkomprimierer von Central Point Software, Norton und Stac Electronics eingekauft (bzw. nach Copyrightschwierigkeiten mit Stac Electronics gleich die gesamte Firma, woraufhin dann das laufende Gerichtsverfahren gegen Microsoft von Stac Electronics aus eingestellt wurde).

Nachdem OS/2 ausgebremst war, gab es lange nichts neues - bis dann Windows 95 kam und das versprach, was Apple 1984 vorgeführt hatte: einfach zu bedienende Computer.

Stand heute

  • Der eigentliche IBM-PC ist vom Markt durch "kompatible Rechner" praktisch soweit verdrängt, daß diese den Titel "IBM-kompatibel" nicht einmal mehr nennen müssen. "Compaq", "Dell", "Vobis Highscreen" sind zu eigenen Markennamen geworden.
  • Die grundlegende PC-Architektur hat sich seit fast 20 Jahren kaum verändert: immer noch baut man aus billigen Komponenten auf praktisch gleich konstruierten Boards.
  • Die einfachen Komponenten führen zu Problemen mit Rechnerstabilität, Verträglichkeit zwischen den Komponenten und gleichzeitig zu dem Problem, das auch die Intel-Prozessoren haben: mit jeder neuen Generation wird ein großer Part der Vorgängergeneration mitgeschleppt statt einmal die Chance zu erhalten, alles komplett neu zu entwerfen.
  • Windows 98 enthält als unterste Basis immer noch ein MS-DOS und dessen Treiber, erst nach dem DOS wird dann der Aufsatz Windows geladen.
  • Für so ziemlich jede noch so geringe Änderung an der Windows-Systemkonfiguration muß der Rechner komplett neu gestartet werden.
  • Ein Speicherschutz, der jedes Programm voneinander trennt, fehlt immer noch, gleichzeitig werden aber für die recht geringe Leistung viel zu hohe Ressourcen benötigt.
  • Man versucht mangelnde Leistung des Betriebssystems durch Hardware zu kompensieren: die Prozessoren werden immer schneller, die Festplatten immer größer.

Anders Henke, 23.05.1999