Nachdenken über Sozialismus:

das Open-Source-Projekt

VorbemerkungenIn der programmatischen Debatte im Umfeld der PDS ist (wieder einmal) ein heftiger Streit darüber entbrannt, ob bzw. inwiefern die kapitalistische Gesellschaftsordnung auch als "moderne

Diese These wird auch von den Kritikern des Moderne-Ansatzes nicht in Frage gestellt.1 Die Differenzen beginnen allerdings bereits bei der Frage, welche Entwicklungen als Keime einer sozialistischen Alternative anzusehen sind und wie sich diese entwickeln werden.
Methodisch konsequent zu Ende gedacht muß ein derartiger Ansatz auch danach forschen, wie solche Keime in die alte Gesellschaft eingebettet sind und diejenigen Prozesse und Instrumente heraus finden, die schon heute, in der Logik gegenwärtiger gesellschaftlicher Verhältnisse, in der Lage sind, diesen Keimen ein Substrat zu bereiten, auf dem sie knospen, sich entwickeln und Früchte tragen können, statt einzugehen. Ein solches Herangehen kann selbstverständlich kein Ersatz für die Kritik der gegenwärtigen Herrschaftsverhältnisse sein, bedeutet aber, viel intensiver und unmittelbarer in diese Gesellschaft hinein zu schauen und in der Summe der Widersprüche und Perversionen auch Tendenzen und Prozesse aufzuspüren, die weit unter der Oberfläche auf sehr subtile Weise globalen Trends entgegen wirken. Zweifellos bedarf es sehr genauer analytischer Arbeit, um die Kraft und Dynamik solcher Gegentrends realistisch einzuschätzen. Diese Arbeit steht wohl, wenigstens die Analyse heutiger Umbrüche betreffend, im wesentlichen noch bevor.2
Daß solche unscheinbaren Trends wichtig für Analyse und Prognose gesellschaftlicher Veränderungen sind und nicht nur Fluktuationen um einen ansonsten stabilen "Endzustand der Geschichte" (Fukuyama) darstellen, wird aus marxistischer Sicht damit begründet, daß "die Bourgeoisie kann nicht existieren, ohne (Â…) sämtliche gesellschaftlichen Verhältnisse fortwährend zu revolutionieren" (MEW 4: 465).
Im Gegensatz zu Marx sehen wir heute die historische Dynamik solcher Umwälzungsprozesse klarer. Sie ist keineswegs so linear, wie es das Zitat nahelegt, sondern wird durch ein Wechselspiel von Phasen größerer Umbrüche und Zeiten relativer Konstanz wenigstens der wichtigsten Formen der Produktionsorganisation geprägt. Die größeren Umbruchphasen korrelieren eng mit wichtigen technologischen Durchbrüchen und haben wie die Kondratjew-Wellen eine Periode von etwa 70 bis 80 Jahren. Es waren wohl auch diese Umbrüche, die Marx um 1850 und Lenin um 1920 zu sehr optimistischen Prognosen für eine sozialistische Perspektive verleitet haben. Der Kapitalismus hat jedoch in beiden Umbruchphasen ein erstaunliches Anpassungsvermögen unter Beweis gestellt und war jeweils in der Lage, zu neuen Formen der Produktionsorganisation überzugehen (von der Manufaktur zum Fabriksystem der industriel-len Produktion und später zum Fließbandsystem des Fordismus), ohne die eigenen Grundpfeiler in Frage zu stellen. Eine solche einigermaßen schlüssige Anpassung steht für die aktuelle Umbruchphase bisher aus.
Wenn wir uns in der Analyse heutiger Umbrüche auf Marx stützen wollen, dann gilt es also zu berücksichtigen, daß er zu seiner Zeit die Wellenform dieser Umbruchprozesse nicht genauer erkennen konnte und somit sicher an vielen Stellen die Charakterisierung des speziellen Umbruchs um 1850 (des Übergangs zur industriellen Produktion) und die Momente der allgemeineren Dynamik (insbesondere die wachsende Rolle allgemeiner Arbeit) nicht sauber genug trennt. Ein solches Defizit gilt es heute zu vermeiden, wobei sowohl die spezielle Dynamik der aktuellen Umbrüche (Übergang zu einer Gesellschaft, die durch die Allgegenwart von Computern geprägt wird) als auch die allgemeine Dynamik (das Ende der "Vorgeschichte der menschlichen Gesellschaft" - MEW 13: 9) zu analysieren sind.
Ein großer Teil der Irritationen, die die programmatische Debatte in der PDS bisher begleiten, liegt zweifellos darin begründet, daß sich die "Modernisierer" (etwa im "Kommentar"3 oder den Mehrheitsthesen4) stärker auf die Dynamik zivilgesellschaftlicher Instrumente und damit auf diese allgemeinen Fragen konzentrieren, während eine fundierte Charakterisierung des speziellen Umbruchs der neunziger Jahre noch weitestgehend aussteht. Auch die Kritiker des Moderne-Ansatzes erkennen die Rolle an, die zivilgesellschaftlichen Instrumenten in dem Versuch zukommt, eine Klammer um Prozesse und Entwicklungen zu legen, die unter alleiniger Wirkung der Marktgesetze die Gesellschaft längst atomisiert hätten.5 Ihr Verweis sowohl auf deren (wenigstens in "ruhigen Zeiten") vordergründig systemstabilisierende Wirkung als auch die Tatsache, daß sie sich nicht im Selbstlauf entwickeln, sondern ihr Aus- oder Abbau von harten gesellschaftlichen Auseinandersetzungen begleitet ist, bleibt für ein besseres Verständnis der vielfältigen Wirkungen dieser Instrumente genauer zu analysieren.
Ein solches voll funktionsfähiges zivilgesellschaftliches Substrat, also eine ausgebaute sowohl technische als auch soziale Infrastruktur, ist für technologische Prozesse in ihrer heutigen Komplexität notwendiger denn je. Erst ein solches gesellschaftliches Umfeld schafft den notwendigen Raum für den verantwortungsvollen Umgang mit diesen Technologien und kann verhindern, daß sie in scheinbar blinder Gewalt soziale oder gar biologische Existenzbedingungen der Menschheit zerstören. In der Austrocknung dieses Substrats liegt anerkanntermaßen eines der Grunddefizite der Sozialismusversuche des 20. Jahrhunderts, die letztlich zu deren Scheitern führten. Die Art und Weise, wie die Austrocknung des zivilgesellschaftlichen Substrats in den neunziger Jahren ihre Fortsetzung findet, läßt Schlimmes befürchten, befindet sich aber nicht im Gegensatz zu realsozialistischen Defiziten, sondern führt sie fort. Es ergibt sich damit die Frage, ob neoliberale Politik nicht eher das auf die Spitze getriebene Alte als der Beginn einer neuen Epoche ist, der große Krach also nicht hinter uns liegt, sondern unmittelbar bevorsteht.
Deshalb sind auch Argumente zu entwickeln, mit denen sich prognostizieren läßt, ob die aktuellen technologischen Umbrüche noch einmal in primär am Profit orientierten Formen der Produktions- organisation stabil aufgefangen werden können oder diesmal Grundpfeiler kapitalistischer Gesellschaftsverhältnisse erschüttert werden. Es gibt genügend Anzeichen dafür, daß der Stand der Produktivkräfte die Transzendierung dieser Strukturen auf die Tagesordnung stellt. Marx schreibt in seinen Grundrissen dazu, daß in einem stark wissenschaftlich geprägten Arbeitsumfeld "die Schöpfung des wirklichen Reichtums weniger abhängt von der Arbeitszeit und dem Quantum angewandter Arbeit als von der Macht der Agentien, die während der Arbeitszeit in Bewegung gesetzt werden und die selbst wieder (Â…) in keinem Verhältnis steht zur unmittelbaren Arbeitszeit, die ihre Produktion kostet, sondern vielmehr abhängt vom allgemeinen Stand der Wissenschaft und dem Fortschritt der Technologie" (MEW 42: 592).
Eine solche Gesellschaft, die mehr auf die individuelle Kompetenz als die austauschbare Arbeitskraft des einzelnen angewiesen ist, wird damit in wichtigen Bereichen auch einem anderen Gesetz als dem der Ökonomie der Zeit folgen. Die Gültigkeit dieses Gesetzes ist aber die Prämisse für die Anwendbarkeit der ökonomischen Theorie von Marx, wie er selbst im Anschluß an die oben zitierte Stelle herausarbeitet. Im Zuge der Analyse einer "modernen" Gesellschaft wird man also diesen Rahmen zu überschreiten haben.

Linux versus Windows
Für ein solch umfassendes neues Theoriegebäude ist die detaillierte Analyse realer, insbesondere ökonomischer Prozesse eine unabdingbare Voraussetzung, wobei der Analyse ausgewählter Trends "unter der Oberfläche" bei der Suche nach Keimen alternativer Organisationsformen besondere Bedeutung zukommt. In meinen Augen illustriert gerade ein sehr interessantes Projekt aus dem Bereich der Computersoftware, worauf es dabei ankommt.
Im März 2000 fand in Hannover wie jedes Jahr die Cebit, die deutschlandweit größte Computerschau, statt. Im Mittelpunkt der Berichterstattung stand der Software-Riese Microsoft mit der Europapremiere seines neuen Betriebssystems Windows 2000. Mit einem Upgrade-Preis ab etwa 300 DM pro Lizenz ist es nicht ganz billig und deshalb zunächst auch nicht so sehr für Privatnutzer gedacht (diese werden auf den Sommer und eine Variante vertröstet, die den klangvollen Namen Windows Millenium Edition tragen soll), zumal die Unterstützung einschlägiger Computerspiele wohl auch noch zu wünschen übrig läßt6. Statt dessen soll Windows 2000 die mit Windows NT vor allem im Bereich der Server und Geschäftsanwendungen erreichten Positionen festigen, wo sich heute noch verschiedene Unix-Varianten großer Firmen wie IBM oder Sun hartnäckig behaupten.
Hat sich die neue Windows-Version erst einmal an zentralen Stellen wie Ämtern, Schulen und Büros durchgesetzt, wird auch der Privatnutzer nicht um einen Griff ins Portemonnaie herum kommen, auch wenn er bereits für die Vorgängerversionen Win959 und Win98 kräftig zur Kasse gebeten worden ist. Schließlich gibt es zum neuen Windows auch ein neues (und natürlich extra zu bezahlendes) Word 2000 mit einem neuen, wiederum nur aufwärts kompatiblen Format.
Und wenn erst einmal genug Dateien im neuen Format eingegangen sind, wird der gebeutelte Privatnutzer die eigene Informationsinfrastruktur zähneknirschend "aufrüsten", auch wenn weder Absender noch Empfänger die neu eingebauten Möglichkeiten nutzen oder zu nutzen gedenken. Die Möglichkeiten, aus der Position eines proprietären de-facto-Standards heraus Geld zu scheffeln, sind faktisch unbegrenzt, bedürfen wenig Einfallsreichtums und stehen kaum in Relation zum tatsächlichen Aufwand für die Neuentwicklungen. Die mit diesen Werkzeugen erstellten Produkte sind sperrig, intransparent und enthalten teilweise Informationen, die der Absender eigentlich nicht zur Weiterverbreitung vorgesehen hatte.7 Andererseits sind die Programme mit Mechanismen ausgestattet, die sie vor "unbefugter" Weitergabe effektiv schützen sollen, indem die Software ständig prüft, ob die Charakteristika des jeweils verwendeten Rechners, die in der Registrierungsphase gespeichert wurden, noch zutreffen. Ist dies nicht der Fall, aus welchem Grund auch immer, wird der Dienst verweigert.
Eine völlig andere Philosophie verfolgen die Entwickler des Betriebssystems Linux. Dieses System, das heute Distributoren wie Red Hat, Debian, Caldera oder SuSe auf CD-Rom zusammen mit einem großen Berg weiterer freier Software für knapp 100 DM (pro CD-Set mit dickem Handbuch) vertreiben, ist eines der zentralen, aber bei weitem nicht das einzige Projekt, das die wachsende Schar der Anhänger offenen Quellcodes vorantreiben. Auf Intel-Rechnern stellt es inzwischen eine ernst zu nehmende Alternative zu Windows dar. Wem der Preis von 100 DM immer noch zu hoch ist, der kann sich die CD von einer Freundin oder einem Freund leihen, denn der Preis ist ausschließlich für die CD, nicht aber für das System selbst zu zahlen.8
Dieses unterliegt den Lizenzbedingungen der GPL, der GNU9 Public Licence, die fordert, daß das System frei (und nur zusammen mit all seinen Quellen) verbreitet werden darf und daß alle Weiterentwicklungen und Programme, die in irgendeiner Form unter GPL lizenzierten Code enthalten, wiederum unter der GPL veröffentlicht werden müssen. Die subtile Wirkung dieser auch als CopyLeft im Gegensatz zum CopyRight bezeichneten Regelung ist kaum zu unterschätzen.
Auch ohne aggressive Marketing-Kampagnen hat dieses Betriebs-system in den reichlich acht Jahren, die seit dem ersten "offiziellen" Release 0.02 am 5. Oktober 1991 vergangen sind, bereits einen festen Platz im akademischen Bereich erobert. Die steile Karriere des Pinguins (das Markenzeichen von Linux) in unternehmensweiten IT-Konzepten in den letzten beiden Jahren liegt vor allem in der Verfügbarkeit verschiedener Profisoftware für Linux und Windows begründet.
Das folgende längere Zitat aus dem Jahre 1998 erhellt, warum sich auch industrielle Anwender zunehmend für Linux und damit gegen Windows entscheiden: "Früher in den Unternehmen mit den Worten ›Kost nix - taugt nix‹ belächelt, entdecken nun professionelle Anwender das alternative Unix-Betriebssystem Linux.
In der Regel sind dafür nicht nur die Kostenvorteile der unentgeltlich zu beziehenden Software verantwortlich, sondern Stärken wie Stabilität, rasche Weiterentwicklung und schnelle Problemlösung, falls irgendwo ein Fehler auftritt. Der Grund dieser Vorzüge ist die Offenheit. Alles liegt im Quelltext für jeden zugänglich vor. Jeder kann sich an der Fortentwicklung des Betriebssystems beteiligen. Millionen aus der Internet-Gemeinde tun dies. Allerdings zeigt sich hier die Hauptschwäche des Linux-Konzepts: Es gibt weder das Linux noch ein Unternehmen, das hinter dem "virtuellen" Produkt steht. Bei Problemen hat man im Prinzip keinen Ansprechpartner. Linux ist ein zusammen gewürfeltes Software-Konglomerat. Zwischenzeitlich bieten viele kleine Softwarehäuser sorgsam zusammen gestellte Linux-Software und Support - besonders für professionelle Anwender. (Â…) Linux stammt aus den Universitäten. (Â…) Viele der Studenten von damals sitzen heute in den Softwarefirmen und drängen mit Erfolg darauf, entsprechende Programme auch auf Linux zu portieren. Beispiele sind etwa Star Division oder die Software AG."10
Der weitere Siegeszug von Linux zeichnet sich bereits ab11, auch wenn Microsoft offensichtlich viel Kraft und Geld in eine Gegenstrategie investiert12.

Zur Geschichte des Open-Source-Projekts
Wie kommen derart viele Menschen und Unternehmen im heutigen gesellschaftlichen Umfeld auf die absurde Idee, Teile ihrer Arbeits-ergebnisse anderen großzügig und im wesentlichen kostenfrei zur Verfügung zu stellen, statt diese in klingend Münze zu verwandeln? Ein Blick in die Entstehungsgeschichte des Open-Source-Projekts erhellt einige Zusammenhänge.13
Die Wurzeln des Projekts reichen bis in die Anfänge des Computerzeitalters zurück, wo das entscheidende Geschäft mit Verkauf und Wartung von Hardware gemacht wurde. Für diese wurde meist nur eine minimale Softwareausstattung mitgeliefert. Weiter gehende Software wurde von den Anwendern selbst entwickelt und in vielen Fällen, besonders im akademischen Bereich, freizügig ausgetauscht. Gute Bedingungen hierfür ergaben sich besonders, nachdem AT&T im Ergebnis eines Kartellrechtsprozesses im Jahre 1956 ihre Patente im Softwarebereich gegen nominelle Gebüh- ren an die Konkurrenz lizenzieren mußte. Auch die Entwicklung magnetischer Datenträger beförderte die Austauschbarkeit von Softwareprodukten.
1969 entwickelten Thompson und Ritchie in den AT&T Bell Telephone Labs die erste Version von Unix, die unter den speziellen Bedingungen des Kartellabkommens fast ausschließlich an Universitäten zum Einsatz kam und von AT&T kaum weiter gehende Unterstützung erfuhr. Entsprechende Eigeninitiativen der Nutzer ließen nicht auf sich warten und wurden über das Usenet vernetzt. Die Universität von Berkeley, Kalifornien, koordinierte diese Aktivitäten, indem sie unter maßgeblicher Beteiligung von Bill Joy, dem späteren Gründer von Sun Microsystems, einen eigenen Zweig von Unix, die Berkeley Software Distribution (BSD), entwickelte und an andere Universitäten vertrieb. Das Jahr 1982 ist das Geburtsjahr des kommerziellen Unix. IBM, HP und DEC veröffentlichten Unix-Versionen unter neuen Namen für ihre eigene Hardware. Nach einem weiteren Kartellprozeß trennte sich AT&T 1984 von 26 Firmen der Bell-Gruppe und durfte fortan als Wettbewerber im Computergeschäft auftreten. Damit nahm die Ära der liberalen Unix-Lizenzierung, des Zugriffs auf den Quellcode sowie des Austauschs von Programmen und Verbesserungen ein Ende. Die Lizenzgebühren für Unix wurden drastisch angehoben. Jahre vor Windows war damit der Goldesel, den ich weiter oben beschrieben habe, bereits entdeckt.
Derartige Restriktionen stehen allerdings im Widerspruch zur Funktionalität, die gerade grundlegende Software wie ein Betriebssystem für kommunikative Zwecke erfüllen muß. Entsprechender Widerstand regte sich in der Gemeinde14, in deren Ergebnis Richard Stallman im Jahr 1984 das GNU-Projekt mit dem Ziel ins Leben rief, ein freies Unix zu schaffen und hierzu als Koordinationsstelle die Free Software Foundation gründete. Das Open-Source-Projekt, damals noch unter dem Banner "freie Software", war geboren. Das Credo aller zukünftigen Anstrengungen wird mit den ersten Sätzen der GPL15 umrissen: "The licences for most software are designed to take away your freedom to share and change it. By contrast, the GNU General Public License is intended to guarantee your freedom to share and change free software - to make sure the software is free for all its users."
Unter diesem Banner wurden Schritt für Schritt wichtige Software-Werkzeuge wie Compiler (C), Editoren (Emacs), Programmiersprachen (Perl, Python, Tcl und andere), Standards und Programme (wie sendmail, make, tar, awk) entwickelt, um den Computer zu einem effektiven Werkzeug für kreative geistige Arbeit zu machen. Mit dem Erscheinen von Linux ist die letzte Lücke im GNU-Projekt geschlossen, und es steht erstmals in der Geschichte der Datenverarbeitung ein komplettes freies Betriebssystem zur Verfügung.
Die entwickelten Werkzeuge sind nicht nur billiger, sondern ihren kommerziellen Geschwistern in Zuverlässigkeit und Funktionalität oft überlegen. Allerdings fehlt ihnen in vielen Fällen der "letzte Schliff", die intuitiv zu bedienende Oberfläche. Die Bedeutung des ersten Punkts überwiegt aber für den professionellen Einsatz, so daß selbst stark kommerziell orientierte Softwareunternehmen in ihren internen Entwicklungsprozessen gern freie Werkzeuge einsetzen.
Mit der weiteren Verbreitung freier Software stand auch deren Verhältnis zu kommerziellen Produkten neu auf dem Prüfstand. Die strengen Regeln der GPL fordern, daß jedes Programm, das auch nur eine Zeile unter GPL lizenzierten Codes enthält, auch der GPL unterstellt werden muß. Sie sind folglich mit jeder Lizenz, die mehr Einschränkungen enthält, inkompatibel. Die Akzeptanz freier Software beschränkte sich daher über zehn Jahre lang fast ausschließlich auf den privaten und akademischen Bereich. Mit Linux erreichte eine freie Software in kürzester Zeit eine Beliebtheit und Verbreitung, wie sie bis dahin in diesem Sektor unbekannt war. Damit rückte freie Software auch in das Blickfeld der kommerziellen Welt.
Mit der stärkeren Verzahnung beider Bereiche wurde eine Reihe anderer Lizenzen entworfen, die die freie Verbreitung des Quell-codes sicher stellen, aber vor einer kommerziellen Verwertung geringere Hürden aufbauen. Anfang 1998 wurden diese Entwicklungen von führenden Köpfen der Gemeinde analysiert und der Begriff "open source software" aus der Taufe gehoben, der in der Folgezeit den Begriff "freie Software" in der Außendarstellung zunehmend verdrängt hat. Dabei wurden Anforderungen formuliert, die eine Softwarelizenz erfüllen muß, damit sie dem Open-Source-Bereich zugerechnet werden kann. Auch diese Regeln enthalten an zentraler Stelle die Forderung nach freizügigem, solidarischem und nicht kommerziellem Umgang mit den Quellen, erlauben aber stärker die kommerzielle Verwertung abgeleiteter Produkte. Auch wenn R. Stallman und mit ihm ein Teil der Gemeinde gute Gründe ins Feld führen16, einer solchen Aufweichung kritisch zu begegnen, haben sich damit letztlich die stärker pragmatischen Kräfte durchgesetzt. Die neue Dynamik, die die Open-Source-Bewegung mit dieser Entscheidung gewonnen hat, führte dazu, daß heute der Übergang zwischen freier und nichtfreier Software fließend ist.

Aktuelle Entwicklungen
Der kritische Leser wird an dieser Stelle einwenden, daß diese ersten Berührungen mit der kommerziellen Welt, die bereits zur Aufweichung der GPL geführt haben, nur die Vorboten wesentlich ernsterer Angriffe sind und es bestimmt nur eine Frage der Zeit ist, bis dieses "Kommunardenprojekt" glattgebügelt wird und auch die heutigen Verfechter offener Software beginnen, das Hohelied auf den Markt anzustimmen. Ein solcher Einwand ist mit Blick auf die weltweit forcierten Prozesse der Privatisierung bisher relativ freizügig zugänglichen geistigen Eigentums (an Filmen, Fußballrechten, Bildern, selbst Genen) mehr als verständlich.
Allerdings läuft gegenwärtig aus irgend welchen Gründen im Open-Source-Bereich gerade der umgekehrte Prozeß: Nachdem sich Linux im akademischen Bereich bereits fest etabliert hat, beginnt es jetzt auch im kommerziellen Bereich eine zunehmend wichtige Rolle zu spielen. Distributoren, Berater- und Supportfirmen schaffen inzwischen das nötige Hinterland, um diese und andere freie Software stabil in Geschäftsprozesse einzubinden. Es ist eine ganze Industrie entstanden, die sich entgegen allen marktgesetzlichen Regeln an der gemeinsamen Weiterentwicklung dieser freien Software beteiligt und eigene Gewinne nur in Bereichen erzielt, die darauf aufsetzen. Große Firmen wie Intel, IBM oder Sun unterstützen diese Initiativen, da sie auch mittelbar von den Entwicklungen profitieren und so außerdem den zunehmenden Einfluß von Microsoft zurück zu drängen hoffen. Auch im öffentlichen Bereich, namentlich der Bundesverwaltung, wird über diese Alternativen ernsthaft nachgedacht.17
Die Komplexität der Motivationslage macht die Geschichte von Netscape deutlich. Diese Firma hatte einen besonders guten Start in das Zeitalter der Web-Browser18 und daher relativ rasch eine Vormachtstellung in diesem Softwaresektor aufbauen können. Da Web-Browser für den Computernutzer das Tor in die Web-Welt darstellen, bedeutet Kontrolle auf diesem Gebiet zugleich Kontrolle über eine Reihe weiterer Gebiete, etwa die Formate, in denen Texte und Graphiken vorliegen müssen, um von diesen Browsern gut (oder überhaupt) dargestellt zu werden. Den ersten Browserkrieg im Jahr 1994 hatte Netscape noch gewonnen, damals gegen den durch staatliche Stellen unterstützten Browser Mosaic. Mit dem neoliberal motivierten Rückzug staatlicher Stellen aus diesem Geschäft und folglich der Aufgabe öffentlicher Definitionsmacht über diesen Standard war das Feld frei, hier einen proprietären Standard ähnlich dem von Windows zu etablieren. Die strategische Bedeutung dieses Bereichs wurde von Microsoft mit einiger Verspätung erkannt. Dann jedoch setzte der Softwareriese seine volle Marktmacht ein, um hier zu einer dominierenden Stellung zu gelangen.
Eine Schlacht zwischen beiden Kontrahenten begann, in der Microsoft sogar darauf setzte, seinen eigenen Browser, den Internet Explorer, kostenlos wegzugeben, ihn auf Computern vorinstallieren zu lassen und große Internet-Service-Provider zu bewegen, ihre Software mit dem Microsoft-Browser zu bündeln. Einem solch geballten Dumping hatte Netscape nur wenig entgegen zu setzen, so daß Analysten im Jahr 1998 keinen Pfifferling mehr auf den Netscape-Browser gaben. An dieser Stelle scherte Netscape aus dem Browserkrieg aus und legte die Quellen des eigenen Browsers offen mit der erklärten Absicht, ihn als Projekt mit dem Namen Mozilla im Open-Source-Bereich weiter zu entwickeln. Der Feldzug von Microsoft ist damit nicht beendet, seine Chancen, den Sieg in Form eines neuen proprietären Standards davon zu tragen, sind aber nach allgemeiner Einschätzung deutlich geringer geworden.
Der Start von Mozilla in der Open-Source-Welt verlief allerdings schwerfälliger als erhofft, weil es wahrscheinlich nicht so einfach ist, in kurzen Zeiträumen eine ausreichende Zahl guter Programmierer für ein solches Projekt zu interessieren. So hat Netscape in den letzten zwei Jahren gegenüber dem Microsoft Internet Explorer weiter an Boden verloren. Beta-Tester der neuen Version Netscape 619, deren offizielles Release für den Sommer 2000 angekündigt ist, berichten aber von einem deutlichen Leistungszuwachs, so daß auch diese Geschichte noch nicht zu Ende geschrieben ist.
Schlußfolgerungen
Viele Beobachter sind sich einig, daß Open-Source-Software nicht nur billiger und bequemer zu beziehen, zu verteilen und zu warten, sondern in der Regel auch qualitativ besser als entsprechende kommerzielle Produkte ist. Die gute Qualität der entwickelten Software resultiert entscheidend aus der Art und Weise der Zusammenarbeit in einem solchen Projekt: Eine weltweite Gemeinde von Programmierern arbeitet freundschaftlich und ohne Druck zusammen, jeder übernimmt entsprechend der eigenen Kompetenz und den eigenen Vorlieben in wohlumrissenen Teilaufgaben Verantwortung, kann dort eigene Kreativität zur Entfaltung bringen und sich zugleich darauf verlassen, daß dies in anderen Bereichen des Projekts ebenso geschieht. Die Ergebnisse der Arbeit werden gemeinsam bewertet, wobei sich schnell herausstellt, wer die fähigsten Köpfe in diesem Kreis sind. Diese übernehmen dann in der Regel auch die Leitung des Projekts, allerdings nicht in einem hierarchischen Sinne, sondern als "primus inter pares".20 Auch wenn nicht jedes Projekt gelingt, so ist es doch erstaunlich, daß auf einer so freiwilligen Grundlage überhaupt ernsthafte Ergebnisse entstanden sind.
All das klingt fast wie die Beschreibung einer idyllischen Welt, obwohl es in der konkreten Arbeit natürlich nicht ohne Konflikte abgeht. Eine wesentliche Voraussetzung derartiger Projekte liegt darin, daß die beteiligten Personen nicht gezwungen sind, das Ergebnis dieser Projektarbeit zu verkaufen, um davon ihren Lebensunterhalt zu bestreiten. Mit Blick auf die große Zahl solcher Projekte gibt es offensichtlich gute Gründe, sich nicht nur im öffentlichen Dienst einen derartigen Luxus zu leisten. Auch Unternehmen wissen die Kompetenz zu schätzen, die sich Mitarbeiter auf diesem Wege aneignen und in die kommerziellen Projekte in den eigentlichen Geschäftsfeldern der Firma einbringen. Selbst subtile Detailkenntnisse einzelner von Entwicklungen im Open-Source-Bereich können sich als Wettbewerbsvorteil für die ganze Firma erweisen. Ähnliches kann man wohl auch von "Freelancern" sagen, auch wenn deren Freiräume für "Muße" gewöhnlich deutlich geringer sind.
Die hier beschriebenen Phänomene beziehen sich auf Arbeitsverhältnisse, in denen primär Kompetenz zählt und nicht gearbeitete Zeit. Damit schließt sich der Bogen und wir sind wieder bei jenem Marxzitat angelangt, mit dem die Vorbemerkungen abgeschlossen haben. Wir haben festgestellt, daß derartige Arbeitsverhältnisse bereits heute geprägt sein können durch ein Klima, in dem solidarische Ansätze mit selbst bestimmten und selbst bestimmbaren Freiräumen, Kreativität und Verantwortung zusammen treffen. Daß sich ein solches wohlwollendes Miteinander eigentlich konkurrierender Subjekte aus oft rein pragmatischen Erwägungen heraus in dieser Gesellschaft entwickelt, entwickeln kann und sogar von großen Firmen gestützt wird, die jeglicher Sympathien für sozialistische Ideen unverdächtig sind, halte ich für sehr bemerkenswert.
Keine einigermaßen brauchbare Beschreibung eines "modernen Kapitalismus" wird ohne eine genaue Analyse derartiger Mechanismen auskommen können. Leider haben auch die etablierten ökonomischen Lehrmeinungen hierzu nicht nur wenig zu bieten, sondern betrachten diesen Bereich geradezu als blinden Fleck. Man wird deshalb bei bürgerlichen Ökonomen wenige Anleihen aufnehmen können. Statt dessen warten die vielfältigen Überlegungen, in denen die "Hacker"-Szene über sich selbst nachdenkt, auf eine systematische Aufarbeitung und stärkere theoretische Fundierung. Einige wichtige Quellen sind im Anhang zusammengestellt.
Und ein letzter Gedanke im Lichte dieser Erfahrungen: Auch wenn der Slogan der "sozialen Gerechtigkeit" in Wahlkämpfen und Agitation der Linken stets einen wichtigen Platz einnehmen wird, halte ich ihn als roten Faden für eine programmatische Debatte weniger geeignet als das genauere Ausleuchten der subtilen Sprengkraft, die diese solidarischen Konzepte in der hier angedeuteten Spannbreite in sich tragen: Gerechtigkeit ist ein konfrontativer, Solidarität ein kooperativer Ansatz.