Stefan Meretz (Juni 2000)

LINUX & CO. Freie Software – Ideen für eine andere Gesellschaft.

Zusammenfassung    Download

Version 1.01, Letzte Änderung: 03.07.2000

Link-Korrektur: 27.08.2012

Originalquelle: http://www.kritische-informatik.de/fsrevol.htm

Als Buch erschienen im Verlag AG SPAK Bücher, 79 S., 12 DM, ISBN 3-930830-16-7, http://www.leibi.de/spak-buecher, E-Mail: spak-buecher@leibi.de

Bei diesem Text handelt es sich um eine zusammenfassende Darstellung des Themas Freier Software, die auf drei Aufsätzen basiert (siehe Literaturliste): Meretz 1999a, Meretz/Schlemm 2000, Meretz 2000.

Lizenz: GNU Free Documentation License Version 1.1, http://www.gnu.org/copyleft/fdl.html

Inhalt:

1. Die Geschichte Freier Software

1.1. Die Vorgeschichte Freier Software
Zeittafel: Geschichte Freier Software
1.2. Die erste Phase Freier Software
1.3. Die zweite Phase Freier Software – ein neues Entwicklungsmodell
1.4. Basar-Projekte: Selbstorganisierte kollektive Softwareentwicklung
1.5. Zusammenfassung

2. »Freie Software ist wertlos – und das ist gut so!«

2.1. Der Produktionskreislauf
2.2. Der Konsumkreislauf
2.3. Knappheit und Wert
2.4. Freie Software befreit
2.5. OSI und GNU – zwei verkrachte Geschwister
2.5.1. Der Wirtschaftsliberalismus von ESR
2.5.2. Der Bürgerrechtsliberalismus von RMS

3. Geschichte ist die Geschichte der Produktivkraftentwicklung

3.1. Produktivkraft der Arbeit
3.2. Die »Natur-Epoche«: Entfaltung des Naturaspekts der Produktivkraftentwicklung
3.3. Die »Mittel-Epoche«: Entfaltung des Mittelaspekts der Produktivkraftentwicklung
3.3.1. Fordismus – die erste algorithmische Revolution
3.3.2. Die Krise des Fordismus
3.3.3 Toyotismus – die zweite algorithmische Revolution 3.4. Die »Menschen-Epoche«: Entfaltung des Menschen an und für sich
3.4.1. Selbstentfaltung verwerten?
3.4.2. Jenseits der Verwertung
3.5. Zusammenfassung

4. Freie Software für freie Menschen in einer freien Weltgesellschaft

4.1. Was können wir tun?

5. Meta-Text

5.1. Versionen-Geschichte
5.2. Glossar
5.3. Literatur
5.4. Anmerkungen

LINUX & CO. Freie Software – Ideen für eine andere Gesellschaft.

»Linux« hat die Computerszene aufgemischt. Dabei ist »Linux« nur das Schlagwort einer Entwicklung, die im Jahre 1984 am Massachusetts Institute of Technology (MIT) begann, weil ein Drucker häufiger Papierstaus produzierte – später dazu mehr. Was zur Gründung freier Softwareprojekte führte und wie die Entwicklung seit dieser Zeit bis heute verlaufen ist, werde ich im ersten Teil vorstellen. Es soll vor allem denjenigen einen Einblick in die Geschichte Freier Software geben, die erst heute auf Linux gestoßen sind oder noch gar nichts darüber wissen. Keine Angst also: Ich werde Fachbegriffe und Abkürzungen erläutern.

Freie Software ist vor allem auch wertfreie Software, denn sie wird nicht für die Verwertung, also den Verkauf hergestellt. Doch die Marktwirtschaft duldet keine verwertungsfreien Räume. Dieses widersprüchliche Verhältnis von Freier Software und profitorientierter Wirtschaft diskutiere ich im zweiten Teil.

Im dritten Teil schiebe ich einen Exkurs über die Geschichte und den aktuellen Stand der Produktivkraftentwicklung ein. Ich werde klären, was Produktivkraftentwicklung ist und warum man diesen Begriff braucht, um den gegenwärtigen Stand gesellschaftlicher Entwicklungen und insbesondere die historische Bedeutung Freier Software einzuschätzen.

Der vierte Teil bringt schließlich die vorhergehenden Teile zusammen. Wir können nun verstehen, dass Freie Software, Linux & Co, nicht bloß eine Sache von Computerfreaks ist, sondern, dass sich in der Freien Softwarebewegung Keimformen einer neuen Gesellschaft jenseits des Kapitalismus zeigen.

1. Die Geschichte Freier Software

Die Geschichte Freier Software beginnt mit der Gründung des GNU-Projekts [1] 1984 am MIT durch Richard Stallman. Stallman ärgerte sich, dass ein Abteilungsdrucker über Papierstaus oder fehlendes Papier keine Meldung lieferte. Er nahm sich vor, die Druckersoftware umzuschreiben und das fehlende Feature einzubauen. Bei der Herstellerfirma Xerox fand Stallman jemanden, der den Quelltext [2] hatte, ihn jedoch nicht herausgeben durfte, da er eine Nichtweitergabe-Verpflichtung (Non-Disclosure Agreement) unterschrieben und sich damit zur Nichtkooperation verpflichtet hatte. Die Software war proprietär [3]. Schlagartig wurde klar: Die »paradiesischen Zustände« (Stallman) der Freiheit und offenen Kooperation der Anfangszeit der Computerei waren endgültig vorbei. Damals war es selbstverständlich, dass der Quelltext von Computerprogrammen frei ausgetauscht und diskutiert wurde. Es war so üblich wie eine Veröffentlichung einer Forschungsarbeit in einer anderen wissenschaftlichen Disziplin. Der Begriff der »Freien Software« war damals unbekannt, denn es gab keine »nicht-freie Software«. Wie kam es zum Umbruch?

1.1. Die Vorgeschichte Freier Software

Die (Vor-)Geschichte Freier Software (vgl. Newman 1999) ist eng mit dem Entstehen des Internets (vgl. Zakon 2000) und des Unix-Betriebssystems verbunden. Ausgangspunkt ist der »Sputnik-Schock« von 1957, als es der Sowjetunion gelang, einen Satelliten in der Erdumlaufbahn zu plazieren. Als Reaktion darauf wurde 1958 die Advanced Research Projects Agency (ARPA) innerhalb des Departement of Defense (DoD) gegründet. Aufgabe war die Einrichtung und Koordination von Forschungsprojekten mit dem Ziel der Erringung der (militär-) technologischen Vorherrschaft. Die Eisenhower-Administration ersetzte damit die alleinige Förderung ausschließlich militärischer Institutionen und Projekte durch eine breite Einbindung des wissenschaftlichen Potentials der USA in eine staatlich gesteuerte, militärisch ausgerichtete Forschungsstrategie. Unter dieser staatlichen Gesamtaufsicht war das Interesse an offenem Austausch der Forschungsergebnisse sehr ausgeprägt. Es entwickelten sich in der Folgezeit zahlreiche offene Standards, die zum Teil bis heute gültig sind.

Zum staatlichen Interesse an starken Standards kam das geringe Interesse der Computerindustrie an der Software. Computerindustrie war Hardwareindustrie, Software war Beiwerk zum Hardwareabsatz. Schaffung öffentlicher Standards und Entwicklung von Software in Forschungsprojekten schufen ein Klima fruchtbarer Kooperation und des freien Austauschs von Ideen. Unter diesen Bedingungen wurden Produkte entwickelt, die Jahre später von der Computerindustrie »noch einmal« erfunden wurden. So wurden am Augmentation Research Center (ARC, gegründet 1965) des Stanford Research Institute folgende Technologien konzipiert und teilweise realisiert:

  • verteiltes E-Mail und Mailinglisten – 5 bzw. 7 Jahre vor dem Internet-Vorläufer ARPAnet;
  • Textverarbeitung – 10 Jahre vor den ersten kommerziellen Programmen;
  • Maus als Eingabegerät – 16 Jahre vor der Einführung durch Apple;
  • Entwicklung einer »Fensterumgebung« – 20 Jahre vor Microsoft;
  • Konzipierung einer Hyperlink-Dokumentenstruktur – 25 Jahre vor dem WWW.

Mit der Entwicklung und Verbreitung von Time-Sharing Computern (v.a. die PDP-Serie der Firma DEC) entwickelte sich jene innovative Hard- und Software-Entwicklungskultur, die später als »Hacking« [4] bezeichnet wurde. Die PDP-10, die 1967 erschien, wurde für 15 Jahre die bevorzugte Maschine der Hacker.

Im Vergleich zum heutigen Entwicklungstempo verlief die Anfangszeit von Internet- und Betriebssystementwicklung vergleichsweise langsam. 1969 entwickelte Ken Thompson (AT&T Bell Labs) das erste Unix-Betriebssystem für eine PDP-7. Im gleichen Jahr wurden die ersten 4 Computerknoten zum ARPAnet, dem Vorläufer des Internets, zusammengeschlossen. Erst 1984 wurde die Zahl von 1000 Knoten erreicht, 1992 die Millionengrenze, heute erreichen wir bald 100 Millionen. 1974 wurde das erste einsatzfähige Unix-System für eine PDP-11 an der Universität von Berkeley installiert. 1977 erschien die erste Unix-Distribution [5] zusammen mit dem Quelltext, die 2.11BSD (Berkeley Software Distribution). Unix entwickelte sich in der Folge zum bestimmenden Betriebssystem, da es weitgehend unabhängig von der Hardware auf verschiedene Maschinen übertragen werden konnte. Unix galt damit als »offenes« System, während proprietäre Betriebssysteme an eine bestimmte Hardware gebunden sind (vgl. Fußnote 3).

1984 kam der Einschnitt: AT&T verkaufte mit dem System V, Version 7, das erste kommerzielle Unix. Software, unabhängig von der Hardware, wurde zur Ware. In dem Maße, in dem Software zur profitablen Ware wurde, zog sich der Staat aus den Innovationen zurück. Um die je eigene Software verwerten zu können, mußte der Quelltext dem Konkurrenten und damit auch dem User verborgen bleiben. Software war nur als proprietäre Software profitabel. Mit offenen Quellen hätte sich zum Beispiel Microsoft nie als das etablieren können, als was wir es heute ansehen: als monopolartigen Moloch. Staatsrückzug und Privatisierung von Software bedeuteten jedoch auch eine Aufweichung von Standards. So entstanden in der Folge sehr viele zu einander wenig oder gar inkompatible Unix-Versionen (AT&T, BSD, Sun, HP, DEC, IBM, Siemens etc.).

Die Konsequenzen für den universitären Forschungsrahmen waren verheerend. Wo früher freier Austausch von Ideen herrschte, wurden jetzt Forschende und Lehrende gezwungen, Kooperationen zu beschränken oder ganz zu unterlassen. Software als Ergebnis von Forschungsaktivitäten durfte nicht mehr dokumentiert werden, sobald es über proprietäre Software an Firmen oder Patente gekoppelt bzw. selbst für die Patentierung vorgesehen war. Richard Stallman beschreibt diese Situation so:

»1983 gab es auf einmal keine Möglichkeit mehr, ohne proprietäre Software einen sich auf dem aktuellen Stand der Technik befindenden Computer zu bekommen, ihn zum Laufen zu bringen und zu nutzen. Es gab zwar unterschiedliche Betriebssysteme, aber sie waren alle proprietär, was bedeutet, dass man eine Lizenz unterschreiben muß, keine Kopien mit anderen Nutzern austauschen darf und nicht erfahren kann, wie das System arbeitet. Das ist eine Gräben öffnende, schreckliche Situation, in der Individuen hilflos von einem »Meister« abhängen, der alles kontrolliert, was mit der Software gemacht wird.« (Stallman 1999)
Zeittafel: Geschichte Freier Software
1957  

UdSSR: »Sputnik«

 
1958  

USA: Gründung der ARPA

 
1959      
1960

Joseph C. R. Licklider: »Man-Computer-Symbiosis«

1961  

Erste PDP-1 am MIT

 
1962

Licklider: Leiter des ITPO in der ARPA         PDP-6: erster Timesharing-Computer

1963

Die Kultur des »Hacking« entsteht

1964  

Erfindung von »BASIC«

 
1965

Gründung des ARC unter Doug Engelbart: »Mäuse« und andere geniale Entwicklungen

1966  

Erster ARPAnet-Plan

 
1967

PDP-10: DIE »Hackermaschine«

1968

»Maus«, »Fenster« und »Textverarbeitung« werden öffentlich präsentiert

1969

Ken Thompson: UNIX

Dennis Ritchie: »C«

ARPAnet mit 4 Hosts

 

Jonathan B. Postel erfindet »RFC«     Apollo-11 Computer-Bug

1970

1.1.1970: The Epoch - Beginn der Unix-Zeitrechnung

1971

Ray Romlinson: E-Mailing im Netz         FTP (RFC 172)

ARPAnet: 23 Hosts

1972

Ray Tomlinson: @-Zeichen

Telnet (RFC 318)

Computer-to-Computer-Chat

1973

Bob Metcalfe entwirft Ethernet für »lokale Netze«

ARPAnet: 35 Hosts

1974

Vint Cerf & Bob Kahn: TCP

Erstes BSD-UNIX für eine PDP-11 erscheint

1975

Erste Mailingliste

Erster PC wird vermarktet

Richard Stallman: Emacs

1976

Mike Lesk (AT&T) entwickelt UUCP

1977

Festschreibung der Mail-Spezifikation (RFC 733)     Donald E. Knuth beginnt TeX-Projekt

1978

Aufteilung von TCP in TCP und IP

BSD-UNIX 2.11

1979

Usenet entsteht (per UUCP)

Eric Allman entwickelt Sendmail-Vorläufer     BSD-UNIX 3

 

Kevin MacKenzie: Emoticons :-)     Richard Bartle und Roy trubshaw: erster MUD

1980

ARPAnet »stürzt ab« durch einen versehentlich in Umlauf gebrachten Virus     BSD-UNIX 4

1981

ARPA finanziert Integration von TCP/IP in BSD-UNIX

BSD-UNIX 4.1

1982

AT&T verliert Anti-trust-Verfahren: die »Baby-Bells« entstehen

SMTP-Spezifikation

1983

AT&T vermarktet UNIX System V als closed source

BSD-UNIX 4.2

1984

DNS wird eingeführt

Paul Vixie schreibt BIND

Sun entwickelt NFS

 

Erste registrierte Dömane: symbolics.com     Richard Stallman gründet das GNU-Projekt

1985

GNU-Emacs

Gründung der Free Software Foundation (FSF)

1986

Internet-Standards: Bildung der IETF         NNTP

BSD-UNIX 4.3

1987

Andrew Tanenbaum: MINIX

Larry Wall veröffentlicht Perl 1.000

1988

John Ousterhout: Tcl     Perl 2.000     Der erste »Internet-Wurm«     Jarkko Oikarinen: IRC

1989  

Perl 3.000

 
1990  

Guido van Rossum: Python

 
1991

Linus Torvalds: Linux 0.01

Paul Lindner and Mark P. McCahill: Gopher

 

Tim Berners-Lee: WWW     Perl 4.000

Philip Zimmerman: PGP

1992

Freies Betriebssystem: GNU-Tools + Linux-Kernel = GNU/Linux

LaTeX 2.09

 

Linux 0.99

Jean Armour Polly erfindet den Begriff "Internet-surfen"

1993

NCSA: »Mosaic« - Internet-Browser     Andrew Tridgell: Samba     FreeBSD 1.0

1994

Linux 1.0     erster Internet-Bankraub         NetBSD 1.0     LaTeX 2e

1995

Linux 1.2     Apache 1.0     PHP     Perl 5.001     NetBSD 1.1     GIMP 0.5     Java

1996

Linux 2.0     GNU/Hurd Test-Version         NetBSD 1.2     GIMP 0.6     FreeBSD 2.0

1997

Eric S. Raymond: »The Cathedral and the Bazaar«

OpenBSD 2.1

 

Tcl/Tk 8.0

Code fork: GCC und EGCS

BIND 8

1998

Netscape veröffentlicht Mozilla-Code     Spaltung: »Free Software« & »Open Source Software«

 

Beginn der Kommerzwelle: Firmen beginnen, ihre Produkte auf freie Systeme zu übertragen

 

GNOME 0.25     KDE 1.0     JPython 1.0     GIMP 1.0     »Halloween«     OpenBSD 2.3

1999

Linux 2.2     GNOME 1.0     KDE 1.1     Samba 2.0     NetBSD 1.4     FreeBSD 3.4

 

»Wiedervereinigung« von GCC und EGCS zu GCC*

2000

Linux 2.4     PHP4     KDE 2.0     FreeBSD 4.0     Apache 2.0     BIND 9

1.2. Die erste Phase Freier Software

Ziel des GNU-Projekts und der 1985 gegründeten Free Software Foundation (FSF) war die Entwicklung eines freien Betriebssystems. Die geniale Leistung dieser Zeit bestand in der Erstellung einer besonderen Lizenz, der GNU General Public License (GPL) – auch »Copyleft« genannt. Die Lizenz basiert auf folgende vier Prinzipien:

  • das Recht zur freien Benutzung des Programms,
  • das Recht, Kopien des Programms zu erstellen und zu verbreiten,
  • das Recht, das Programm zu modifizieren,
  • das Recht, modifizierte Versionen zu verteilen.

Diese Rechte werden gewährleistet, in dem die GNU GPL vorschreibt, dass

  • der Quelltext frei jederzeit verfügbar sein und bleiben muß,
  • die Lizenz eines GPL-Programms nicht geändert werden darf,
  • ein GPL-Programm nicht Teil nicht-freier Software werden darf [6].
  • Die besondere Stärke der GNU GPL besteht in dem Verbot, GPL-Programme in proprietäre Software zu überführen. Auf diese Weise kann sich niemand offene Quelltexte aneignen und modifiziert in binärer Form in eigenen Produkte verwenden. Damit kann Freie Software nicht reprivatisiert werden, die Freiheit bleibt gewährleistet.

    Lizenz-Eigen-
    schaften

    Soft-
    Ware-Art

    Null-Preis Freie
    Verteilung
    Unbe-
    grenzter
    Gebrauch
    Quellcode
    vor-
    handen
    Quellcode
    modifi-
    zierbar
    Alle Ab-
    leitungen
    müssen
    frei sein
    Keine Ver-
    mischung
    mit pro-
    prietärer
    Software
    Kommerziell
    (»Microsoft«)
                 
    Probe-Software,
    Shareware
    (X) X          
    Freeware
    (»Pegasus-Mail«)
    X X X        
    Lizenzfreie
    Libraries
    X X X X      
    Freie Software
    (BSD, NPL, ...)
    X X X X X    
    Freie Software
    (LGPL)
    X X X X X X  
    Freie Software
    (GPL)
    X X X X X X X

    Tab. 1: Vergleich der Lizenzarten

    Bis Anfang der Neunziger Jahre waren alle wesentlichen Komponenten des GNU-Systems entwickelt. Nur der Kernel, das Herz des Betriebssystems, das den Ablauf aller anderen Komponenten koordiniert, fehlte noch. Der GNU-Kernel HURD hatte ein sehr ambitioniertes Design (sog. Microkernel-Struktur) und kam in der Entwicklung nicht voran. So kam die vom GNU-Projekt unabhängige Entwicklung eines funktionierenden Kernels durch Linus Torvalds 1991, der fortan »Linux« genannt wurde, gerade zur richtigen Zeit. Torvalds unterstellte Linux der GPL [7]. Linux als Kernel und die GNU-Komponenten wurden zum GNU/Linux-System zusammengefügt. Heute wird oft einfach von »Linux« geredet, wodurch aber sprachlich verdrängt wird, welchen bedeutenden Anteil die GNU-Komponenten am GNU/Linux-System haben.

    1.3. Die zweite Phase Freier Software – ein neues Entwicklungsmodell

    Wenn bisher einzelne Personen als Entwickler von Freier Software genannt wurden, bedeutet das nicht, dass sie alleine die Programme entwickelten. Freie Software, früher wohl Software generell, wurde und wird in der Regel in Gruppen entwickelt. Eine Person ist für die Koordination der Entwicklung verantwortlich, meistens jedoch auch selbst ganz wesentlich an der Programmierung beteiligt. Bis 1991 war dabei die Auffassung verbreitet, dass kleinere Projekte oder Projekte, die sich gut in additive Module aufteilen lassen, von großen Gruppen entwickelt werden können. Sehr große Projekte wie z.B. die Entwicklung des GNU-Kernels HURD würden hingegen ein kleines eingeschworenes Team erfordern, um den notwendigen Kommunikationsaufwand zu minimieren. Im GNU-Manifest, das Richard Stallman (1984) in der Entstehungsphase des GNU-Projekts schrieb, heißt es (bemerkenswert ist die Ergänzung in Klammern):

    »Ich habe sehr viele Programmierer gefunden, die bereit sind, einen Teil ihrer Arbeitszeit GNU zu widmen. [...] Wenn jeder Beteiligte einen kompatiblen Ersatz für ein Dienstprogramm schreibt und dafür sorgt, dass es an der Stelle der Originalkomponente richtig arbeitet, ... sollte das Zusammensetzen dieser Komponenten eine durchführbare Aufgabe sein (Der Kernel wird eine engere Zusammenarbeit erfordern, daher wird eine kleine Gruppe daran arbeiten.)«

    Diese Vorstellung – große Projekte erfordern kleine Gruppen – war (und ist) im Bereich des Software-Engineerings als das Brooksche Gesetz bekannt (Brooks 1995). Es sagt voraus, dass bei einer Zunahme der Programmierer/innen-Zahl um N die geleistete Arbeit ebenfalls um N steigt, die Komplexität und damit Fehlerwahrscheinlichkeit jedoch um N2 ansteigt. N2 entspricht dem kommunikativen Aufwand aufgrund der möglichen Anzahl der Schnittstellen zwischen den verschiedenen Programm-Modulen. Ein Projekt mit tausend und mehr Beteiligten sollte danach nur mit geringer Wahrscheinlichkeit ein stabiles Produkt zustande bringen. Diese Einschätzung deckt sich mit praktischen Erfahrungen (z.B. die Instabilität der Windows-Betriebssysteme von Microsoft), weshalb auch nach wie vor von einer Krise der Softwareentwicklung gesprochen wird (Meretz/Rudolph 1994).

    Anfang 1992 fand in der Newsgroup comp.os.minix die Tanenbaum-Torvalds-Debatte statt, die inzwischen weithin dokumentiert ist (DiBona et al. 1999, Appendix A). Das war die Zeit von 386-Computern unter DOS, von WordPerfect und DBASE. Tanenbaum, ein Professor aus Amsterdam, schrieb 1986 das Mini-Unix »Minix« für Lehrzwecke geschrieben, da AT&T ab Unix-Version 7 (von 1984) die Verwendung des Quelltextes generell untersagte. Vordergründig ging es um Betriebssystemdesign (Minix: Mikro-Kernel vs. Linux: monolithischer Kernel), dahinter spielte aber immer wieder die Lizenzfrage und die Frage des verteilten Entwickelns ein wichtige Rolle. Linux überrollte Minix aus zwei wesentlichen Gründen:

    • Minix wurde kommerziell unter einer nicht-freien Lizenz vertrieben und durfte nicht beliebig kopiert und nicht im Quelltext modifiziert werden (nur »Patches« waren erlaubt); Linux erschien unter einer freien Lizenz mit der ausdrücklichen Erlaubnis Kopien zu verteilen und den Quelltext zu verändern.
    • Minix wurde folglich nur von Tanenbaum entwickelt, während sich an der Weiterentwicklung von Linux jeder beteiligen konnte.

    Folgendes Zitat verdeutlicht die Haltung Tanenbaums:

    »Ich denke, dass die Koordination von 1000 Primadonnas, die überall auf der ganzen Erde leben, genauso einfach ist wie Katzen zu hüten ...
    Wenn Linus die Kontrolle über die offizielle Version behalten will und eine Gruppe fleißiger Biber in verschiedene Richtungen strebt, tritt das gleiche Problem auf.
    Wer sagt, dass eine Menge weit verstreuter Leute an einem komplizierten Stück Programmcode hacken können und dabei die totale Anarchie vermeiden, hat noch nie ein Softwareprojekt gemanagt.«

    Torvalds antwortet:

    »Nur damit niemand seine Vermutung für die volle Wahrheit nimmt, hier meine Stellungnahme zu »Kontrolle behalten« in 2 Worten (drei?):
    Habe ich nicht vor. [engl. Original: I won't]«

    In Torvalds' Antwort, nicht die Kontrolle behalten zu wollen, liegt der Schlüssel zum Verständnis freier Softwareprojekte. Eric S. Raymond, selbst Hacker von Freier Software, hat in seinem inzwischen klassischen Essay »Die Kathedrale und der Basar« (1997) die Situation so beschrieben:

    »Auch war ich der Meinung, dass Programme, die eine gewisse Komplexität überschritten, nach einem zentralistischen Ansatz verlangen. Ebenso glaubte ich, dass die wichtigsten Programme, worunter Betriebssysteme und sehr große Werkzeuge wie Emacs fallen, wie Kathedralen gebaut werden müssen. Von einzelnen, erleuchteten Künstlern oder einer Handvoll auserwählten Baumeistern hinter gut verschlossenen Türen zusammen gebaut, Stein um Stein (lies Zeile um Zeile), mit keinem Beta-Release, bevor die Zeit nicht endgültig reif ist.
    Linus Torvalds Entwicklungsstil überraschte mich:
    - veröffentliche früh und häufig
    - delegiere alles was sich delegieren läßt
    - sei offen bis zum Punkt des heillosen Durcheinanders genannt das Chaos...
    gelinde ausgedrückt.
    Nicht gerade was man eine ehrfurchtsvolle Kathedralen-Vorgehenweise nennen könnte. Die Linux Gemeinde gleicht schon eher einem großen plappernden Basar (...)
    Die Tatsache, dass die Basar-Entwicklungsmethode zu funktionieren schien, war für mich ein klarer Schock.« (Raymond 1997)
    1.4. Basar-Projekte: Selbstorganisierte kollektive Softwareentwicklung

    Ein gutes Projekt beginnt mit dem individuellen Interesse an der Erschaffung guter Software für einen bestimmten Zweck. Die Initiator/inn/en und Moderator/inn/en solcher Projekte heißen Maintainer. Das kann eine einzelne Person oder eine Gruppe von Leuten sein. Wird das eigene Interesse auch von anderen geteilt, dann finden sich schnell Mitentwickler/innen – eine Projekt-Community entsteht. In aller Regel startet ein Projekt nicht nur mit einer puren Idee, sondern mit einem ersten rudimentären, aber lauffähigen Programm, mit dem dann gemeinsam weiterentwickelt wird. Der Maintainer gibt neue Entwicklungsstände des Programms frei.

    Entscheidend für den Projekterfolg sind folgende Faktoren:

    • Fähigkeiten des/der Maintainer: Maintainer müssen sicher gute Softwareentwickler/innen sein, aber wichtiger noch sind ihre kommunikativen Fähigkeiten bei der Moderation des Projekts. Die Genialität liegt nicht beim Maintainer, sondern im Projekt. Maintainer entscheiden über die Aufnahme von Features und die Veröffentlichung neuer Version, sie sorgen gleichzeitig für Transparenz der Entscheidungen. Ein Maintainer gewinnt Autorität, wenn die getroffenen Entscheidungen vom Projekt mehrheitlich nachvollzogen werden. Maintainer erkennen gute Ideen und verstehen es, die Verschiedenheit der Perspektiven der Projektmitglieder als Kraft für das Projekt zu nutzen. Maintainer entwickeln nicht das Projekt, sondern lassen das Projekt sich entwickeln und lassen die Projektmitglieder sich entfalten.
    • Etablierung einer Projektkultur: Ob ein Projekt eine echte Community ausbildet, ist nicht steuerbar. Anders als verordnete Projekte in der Privatwirtschaft basieren freie Projekte auf einem starken gemeinsamen Eigeninteresse, nämlich dem an guter benutzbarer Software. Darüber hinaus verschafft ein erfolgreiches Projekt den Mitgliedern Anerkennung und das gute Gefühl, etwas Sinnvolles in die Welt gesetzt zu haben bzw. daran beteiligt gewesen zu sein.

    Maintainer und Projekt befinden sind in einer Win-Win-Situation: Das Projekt braucht einen guten Maintainer und gibt ihm jede Unterstützung, und der Maintainer braucht gute und viele Projektmitglieder, um das Projekt erfolgreich durchzuführen. Denn nur viele (und gute) Mitglieder finden viele Fehler. Sie werden nur beim Projekt bleiben, wenn der Maintainer sie ernst nimmt und ihre Vorschläge berücksichtigt. Was sich vordergründig wie ein Widerspruch anhört – »gemeinsames Eigeninteresse« – ist das zentrale Antriebselement in freien Softwareprojekten. Nur in freien Projekten, in denen sich Einzelne nicht wie in Kommerzprojekten nur auf Kosten anderer durchsetzen können, sondern nur in Kooperation mit ihnen, steht das eigene Interesse nicht im Widerspruch zu den Interessen anderer. Diese Form der eigenen Entfaltung in einer kooperativen Form meine ich mit dem Begriff der Selbstentfaltung.

    Die Win-Win-Situation ist auch der Grund dafür, dass es selten zur Abspaltung von Projekten kommt. Es gibt einen starken sozialen Druck gegen die Spaltung, denn Spaltungen gefährden den Projekterfolg. Kommt es dennoch zu Abspaltungen, was wirklich extrem selten der Fall ist, dann besteht eine starke Notwendigkeit, diesen Schritt in der Öffentlichkeit gut zu begründen, um mindestens eine Tolerierung eines solchen Schrittes zu erhalten. Eine Abspaltung ist immer mit der Neubenennung des neuen Projekts verbunden und richtet sich in aller Regel nicht gegen das Stammprojekt.

    1.5. Zusammenfassung

    Linus Torvalds war der Erste, der die Potenzen des Internets als verbindendes, globales Kommunikationsmedium für die Software-Entwicklung nutzte. Er schöpfte den neuen Möglichkeitsraum voll aus. Während kommerzielle proprietäre Softwareprojekte den Profitinteressen des Unternehmens unterliegen, die Anforderungen innerhalb des Projekts folglich letztlich fremdbestimmt sind, finden sich freie Softwareprojekt auf der Grundlage des eigenen Interesses an der Sache und natürlich auch aus Spaß an der Sache zusammen.

    Das Eigeninteresse im freien Softwareprojekt ist aufgrund der Struktur der Projekte völlig verschieden vom sicherlich auch in kommerziellen Projekt vorhandenen eigenen Interesse »die Sache gut zu machen«. Das Eigeninteresse im freien Softwareprojekt kann sich nur mit den Anderen, also in Übereinstimmung mit den Interessen anderer entfalten. Selbstentfaltung ist der Antrieb. Im kommerziellen Projekt besteht hingegen die starke Tendenz, sich auf Kosten anderer zu profilieren. Es ist bemerkenswert, wenn Microsoft von der freien Softwarebewegung lernen will, in dem jetzt die verschiedenen Entwicklungsteams in der eigenen Firma sich gegenseitig in den Quelltext gucken dürfen!

    2. »Freie Software ist wertlos – und das ist gut so!«

    Im folgenden geht es um das Verhältnis von Freier Software und Marktwirtschaft, um die Frage, welche Rolle ein Gut spielt, das »nichts kostet«, der Kapitalismus aber danach trachtet, aus allem »Geld zu machen«. Zur Beantwortung dieser Frage ist zunächst eine Verständigung über die Funktionsweise der Marktwirtschaft, des Kapitalismus, wie unser Wirtschaftssystem nun wieder offen genannt werden darf, notwendig. Und das ist gar nicht so einfach, gilt es doch, sich von alten Klischees freizumachen.

    Es gibt eine bekannte Comic-Vorstellung vom Kapitalismus. Oben gibt es die mit den schwarzen Zylindern, die über das Kapital und die Mittel zur Produktion verfügen. Unten gibt es die mit den blauen Overalls, die unter der Knute der Schwarzzylindrigen schwitzen, weil sie keine Produktionsmittel haben und deswegen ihre Arbeitskraft verkaufen müssen. Je nach persönlicher Vorliebe beklagt man, dass es ungerecht sei, dass die oben die unten ausbeuten, oder dass die Ausbeutung eben in der Natur des Unternehmertums liege.

    Dieses Comic taugt nichts, schon gar nicht, wenn man »Freie Software« verstehen will. Ein anderes Bild muß her. Aus meiner Sicht kann man den Kapitalismus als kybernetische Maschine verstehen, also einer Maschine, die »sich selbst« steuert. Das schließt ein, dass es keine Subjekte gibt, die »draußen« an den berühmten Hebeln der Macht sitzen, sondern dass die Maschine sich subjektlos selbst reguliert. Zentraler Regulator ist der (Tausch-)Wert [8], und zwar in zweifacher Weise: für die Seite der Produktion und die des Konsums.

    2.1. Der Produktionskreislauf

    In der Produktion wird Arbeit verrichtet. Sie heißt konkret insofern das Ergebnis ein Produkt ist, das auf ein Konsumbedürfnis trifft. Sie heißt abstrakt, weil es unerheblich ist, was produziert wird, Hauptsache, es wird Wert geschaffen. Der Wert ist die Menge an Arbeitszeit, die in ein Produkt gesteckt wird. Werden auf dem Markt Produkte getauscht, dann werden diese Werte, also Arbeitszeiten miteinander verglichen. Zwischen den direkten Produktentausch tritt in aller Regel das Geld, das keinen anderen Sinn besitzt, außer Wert darzustellen.

    Was ist, wenn beim Tausch im einen Produkt weniger Arbeitszeit als im anderen steckt? Dann geht der Hersteller des »höherwertigen« Produkts auf Dauer Pleite, denn er erhält für sein Produkt nicht den »vollen Wert«, sondern weniger. Wer fünf Stunden gegen drei Stunden tauscht, verschenkt zwei. Das geht auf Dauer nicht gut, denn die Konstrukteure der Produkte, die Arbeiter und Angestellten, wollen für die volle Arbeitszeit bezahlt werden. Also muß der Tauschorganisator, der Kapitalist, zusehen, dass die für die Herstellung des Produkts notwendige Arbeitszeit sinkt. Das wird in aller Regel auf dem Wege der Rationalisierung vollzogen, dem Ersatz von lebendiger durch tote Arbeit (=Maschinen).

    Was der eine kann, kann der Konkurrent auch. Wichtig und entscheidend ist dabei: Es hängt nicht vom Wollen der Konkurrenten ab, ob sie Produktwerte permanent senken, sondern es ist das Wertgesetz der kybernetischen Maschine, das sie exekutieren. Das Wertgesetz der Produktion besteht im Kern darin, aus Geld mehr Geld zu machen. Die Personen sind so unwichtig wie die Produkte, das Wertgesetz gibt den Takt an. Oder wie es der oberste Exekutor des Wertgesetzes, Hans-Olaf Henkel (BDI-Präsident), formuliert:

    »Herrscher über die neue Welt ist nicht ein Mensch, sondern der Markt. (...) Wer seine Gesetze nicht befolgt, wird vernichtet.« (Süddeutsche Zeitung, 30.05.1996)

    2.2. Der Konsumkreislauf

    Das Markt- oder Wertgesetz bestimmt auch die, nur ihre Arbeitskraft verkaufen können, um an das notwendige Geld zu kommen. Ohne Moos nix los. Auch die Arbeitskraft besitzt Wert, nämlich soviel wie für ihre Wiederherstellung erforderlich ist. Diese Wiederherstellung erfolgt zu großen Teilen über den Konsum, wofür Geld erforderlich ist, was wiederum den Verkauf der Arbeitskraft voraussetzt. Auch dieser Regelkreis hat sich verselbständigt, denn in unserer Gesellschaft gibt es kaum die Möglichkeit, außerhalb des Lohnarbeit-Konsum-Regelkreises zu existieren.

    Beide Regelkreise, der Produktionskreis und Konsumkreis, greifen ineinander, sie bedingen einander. Es ist auch nicht mehr so selten, dass sie in einer Person vereint auftreten. Das universelle Schmiermittel und Ziel jeglichen Tuns ist das Geld. Noch einmal sei betont: Die Notwendigkeit, Geld zu erwerben zum Zwecke des Konsums oder aus Geld mehr Geld zu machen in der Konkurrenz, ist kein persönlicher Defekt oder eine Großtat, sondern nichts weiter als das individuelle Befolgen eines sachlichen Gesetzes, des Wertgesetzes. Eine wichtige Konsequenz dieser Entdeckung ist die Tatsache, dass unser gesellschaftliches Leben nicht von den Individuen nach sozialen Kriterien organisiert wird, sondern durch einen sachlichen, kybernetischen Regelkreis strukturiert ist. Das bedeutet nicht, dass die Menschen nicht nach individuellem Wollen handeln, aber sie tun dies objektiv nach den Vorgaben des kybernetischen Zusammenhangs. Wie Rädchen im Getriebe.

    2.3. Knappheit und Wert

    Damit die Wert-Maschine läuft, müssen die Güter knapp sein. Was alle haben oder bekommen können, kann man nicht zu Geld machen. Noch ist die Luft kein knappes Gut, aber schon wird über den Handel mit Emissionen nachgedacht, denn saubere Luft wird knapp. Viele selbstverständliche Dinge werden künstlich verknappt, um sie verwertbar zu machen. Das prominente Beispiel, das uns hier interessiert, ist die Software. Software als Produkt enthält Arbeit wie andere Produkte auch [9]. Wie wir im historischen Exkurs gesehen haben, war Software solange frei verfügbar wie sie nicht verwertbar erschien. Software wurde als Zugabe zur wesentlich wertvolleren Hardware verschenkt. Im Zuge gestiegener Leistungsfähigkeit und gesunkener Werthaltigkeit der Hardware (ablesbar an gesunkenen Preisen) stieg auch die Bedeutung von Software – sie wurde auch für die Verwertung interessant.

    Um Software verwertbar zu machen, muß Knappheit hergestellt werden. Dies geschieht im wesentlichen durch:

    • Zurückhalten des Quelltexts
    • Einschränkende Lizensierung und Patentierung

    Wie bei jedem Produkt interessiert bei kommerzieller Software die Nützlichkeit und Brauchbarkeit (kurz: Gebrauchswert) den Hersteller überhaupt nicht. Ist ein aufgemotztes »Quick-And-Dirty-Operating-System« (QDOS) [10] verkaufbar, wird es verkauft. Ist das Produkt des Konkurrenten erfolgreicher, dann wird das eigene Produkt verbessert. Die Nützlichkeit und Brauchbarkeit ist damit nur ein Abfallprodukt – wie wir es zur Genüge von den kommerziellen Softwareprodukten kennen.

    Entsprechend sieht es auf der Seite der Entwickler/innen aus. Auch Softwareentwickler/innen liefern nur ihre abstrakte Arbeit ab. In kaum einer anderen Branche gibt es so viele gescheiterte kommerzielle Projekte wie im Softwarebereich [11]. Mit 40 gehören Entwickler/innen schon zum alten Eisen. Der fröhliche Optimismus der Newbies im Business verfliegt schnell. Wer erlebt hat, wie gute Vorschläge mit dem Hinweis auf die Deadline des Projektes abgeschmettert wurden, weiß, was ich meine. Ein Berufstraum wird zum traumatischen Erlebnis.

    2.4. Freie Software befreit

    Das ist mit Freier Software anders. Der erste Antrieb Freier Software ist die Nützlichkeit. Der erste Konsument ist der Produzent. Es tritt kein Tausch und kein Geld dazwischen, es zählt nur eine Frage: Macht die Software das, was ich will. Da die Bedürfnisse der Menschen keine zufälligen sind, entstehen freie Softwareprojekte. Auch hier geht es nicht um Geld, sondern um das Produkt. Es gibt keine größere Antriebskraft als die individuelle Interessiertheit an meinem guten nützlichen Produkt und der individuellen Selbstentfaltung. Das weiß auch der Exekutor des Wertgesetzes in der Produktion. Deswegen spielt der Spaß, das Interesse am Produkt, auch in der geldgetriebenen Produktion eine wichtige Rolle. Es ist nur so, dass die abstrakte Arbeit, die Herstellung von Wert, immer vorgeht. Letztlich zählt eben nur, was hinten rauskommt – und zwar an Geld.

    Abstrakte Arbeit ist nervtötend. Wer sagt, ihm mache seine abstrakte Arbeit Spaß, der lügt – oder macht sich was vor, um die abstrakte Arbeit aushalten zu können. Abstrakte Arbeit ist unproduktiver als freiwilliges Tun – wozu soll ich mich für etwas engagieren, was mich eigentlich nicht interessiert? Also muß man mich ködern mit Geld. Da sieht es für Informatiker/innen zur Zeit gut aus. Aber die Green Card bringt das auch wieder ins Lot. Dann ist da noch die latente Drohung: »Wenn du nicht gut arbeitest, setze ich dich woanders hin oder gleich ganz raus«. Wer sich bedroht fühlt, arbeitet nicht gern und schlecht. Zuckerbrot und Peitsche, die Methoden des alten Rom. Und Rom ist untergegangen.

    Freiwilligkeit und nützliches Tun kann man nicht kaufen, jedenfalls nicht auf Dauer. Selbstentfaltung funktioniert nur außerhalb der rückgekoppelten Wert-Maschine. GNU/Linux konnte nur außerhalb der Verwertungszusammenhänge entstehen. Nur außerhalb des aus-Geld-mehr-Geld-machen-egal-wie konnte sich die Kraft der individuellen Selbstentfaltung zeigen.

    2.5. OSI und GNU – zwei verkrachte Geschwister

    Machen wir uns keine Illusionen. Dort, wo man Geld machen kann, wird das Geld auch gemacht, und wenn es nicht anders geht, dann eben mit dem Drumherum von Freier Software. Das sind Absahner, nicht ohne Grund sind sie inzwischen Sponsoren freier Softwareprojekte und pilgern in Massen zu den Freien Software-Kongressen. Das verurteile ich nicht, ich stelle es nüchtern fest. Maschinen haben den Vorteil, dass man ihre Wirkungsweise ziemlich nüchtern untersuchen kann. So sehe ich mir den Kapitalismus an. Wenn ich die kapitalistische Wert-Maschine verstehe, habe ich nützliche Kriterien an der Hand – für das eigene Handeln und für die Einschätzung so mancher Erscheinungen Freier Software. Auf beides will ich im folgenden eingehen.

    Anfang 1998 gründeten Eric. S. Raymond und Bruce Perens die Open Source Initiative (OSI). Erklärtes Ziel ist die Vermarktung von Freier Software, die Einbindung Freier Software in die normalen Verwertungszyklen von Software. Zu diesem Zweck wurde der Marketingbegriff »Open Source« ausgewählt. Nur mit einem neuen Begriff sei die Wirtschaft für die Freie Software gewinnbar. Der Begriff der »Freiheit« sei für die Wirtschaft problematisch, er klinge so nach »umsonst« und »kein Profit« [12]. Im übrigen wolle man das Gleiche wie die Anhänger der Freien Software, nur gehe man pragmatischer vor und lasse den ideologischen Ballast weg.

    Richard Stallman, Gründer des GNU-Projekts, wirft den Open-Source-Promotern vor, in ihrem Pragmatismus würde die Grenzen zur proprietären Software verschwimmen. Der Begriff »Open Source« sei ein Türöffner zum Mißbrauch der Idee Freier Software durch Softwarefirmen, die eigentlich proprietäre Software herstellen und vertreiben. Im übrigen sei man überhaupt nicht gegen Kommerz und Profit, nur die »Freiheit« müsse gewahrt bleiben.

    2.5.1. Der Wirtschaftsliberalismus von ESR

    Nachdem sich OSI-Mitgründer Bruce Perens wegen der zu großen Anbiederung an den Kommerz wieder von der OSI abgewendet hat, ist es kein Fehler, sich alleine mit den Auffassungen von Eric. S. Raymond (ESR) zu beschäftigen. In den drei Aufsätzen »The Cathedral and the Bazaar« (1997), »Homesteading the Noosphere« (1998) und »The Magic Cauldron« (1999b) entwickelt er ein Kompatibilitätskonzept für die Verbindung von Freier Software und Kapitalismus [13].

    Mit Freier Software ist der kommerzielle Software-Verwerter in eine Klemme gekommen. Freie Software ist öffentlich und nicht knapp. Die in der Freien Software steckende Arbeit wird einfach verschenkt. Damit ist sie nicht mehr verwertbar, sie ist wertlos. ESRs Bemühen dreht sich nun emsig darum, die aus den Verwertungskreisläufen herausgeschnittene Freie Software durch Kombination mit »unfreien Produkten« wieder in die Mühlen der kybernetischen Wert-Maschine zurückzuholen. Seine Vorschläge, die er in »The Magic Cauldron« entwirft – er nennt sie »Modelle für indirekten Warenwert« –, seien im folgenden kurz untersucht.

    »Lockangebot«: Freie Software wird verschenkt, um mit ihr unfreie Software am Markt zu positionieren. Als Beispiel nennt ESR Netscape mit dem Mozilla-Projekt – ein Beispiel, das ziemlich offensichtlich kurz vor dem Scheitern steht [14]. Was passiert hier? Eine Firma schmeißt ihren gescheiterten Browser den freien Entwickler/innen vor die Füße und ruft: »Rettet unsere Profite im Servermarkt!«. Dabei behält sie sich auch noch das »Recht« vor, die Ergebnisse wieder zu unfreier Software zu machen.

    »Glasurmethode«: Unfreie Hardware (Peripherie, Erweiterungskarten, Komplettsysteme) wird mit einem Guß Freier Software überzogen, um die Hardware besser verkaufen zu können. Mußten vorher Hardwaretreiber, Konfigurationssoftware oder Betriebssysteme von der Hardwarefirma entwickelt werden, überläßt man das einfach der freien Softwaregemeinde. Wie praktisch, die kostet ja nichts! Unvergütete Aneignung von Arbeitsresultaten anderer – nennt man das nicht Diebstahl? Nein, werden die Diebe antworten, das Resultat ist doch frei!

    »Restaurantmethode«: In Analogie zum Restaurant, das nur freie Rezepte verwendet, aber Speisen und Service verkauft, wird hier Freie Software von Distributoren zusammengestellt und zusammen mit Service verkauft. Die eigene Leistung besteht in der Zusammenstellung der Programme, der Schaffung von Installationsprogrammen und der Bereitstellung von Service. Unbezahlte Downloads oder gar Cloning (Klauen und geringfügig geändert selbst herausgegeben) der Eigenleistungen durch fremde Distributoren wird als Vergrößerung des gemeinsamen Marktes hingenommen. Oft werden gute Hacker von Distributoren angestellt, die Grenzen zwischen bezahlter und unbezahlter Arbeit sind fließend. Das Geschäftsgebaren der verschiedenen Distributionen ist durchaus unterschiedlich. Während sich das nichtkommerzielle Debian-Projekt mit ihrem Gesellschaftsvertrag [15] zur Einhaltung bestimmter Standards und zur Unterstützung Freier Software verpflichtet hat, steht für andere der reine Selbstzweck der Markteroberung im Vordergrund (etwa SuSE oder diverse Cloner).

    »Zubehörmodell«: Hierzu gehören Herausgeber von Dokumentationen oder anderen Werken über Freie Software sowie andere Zubehörproduzenten, die nur auf der Welle mitschwimmen (etwa die Hersteller der Plüsch-Pinguine). Problematisch sind die exklusiven Lizenzen (Copyright), die eine Verbreitung schriftlicher Werke verhindern. Werden etwa über das Internet frei verfügbare Texte an einen Verlag verkauft, sorgt der Verlag schnell dafür, dass die Texte im Internet verschwinden. Nur knappe Produkte eignen sich als Ware!

    »Marketingmodelle«: Unter Ausnutzung der Popularität Freier Software werden verschiedene Marketingtricks aufgelegt, um proprietärer Software ein besseres Image zu verleihen und für Verkaufbarkeit zu sorgen. Damit sind noch nicht einmal die Betrüger gemeint, die sich einfach selbst das Label »Open Source« oder »Freie Software« auf ihre proprietären Produkte kleben, sondern Formen wie

    • das Versprechen, proprietäre Software in Zukunft freizugeben;
    • der Verkauf von Gütesiegeln, die erworben werden müssen um »Freie Software« verkaufen zu dürfen;
    • der Verkauf von Inhalten, die eng mit dem sehr speziellen freien Softwareprodukt verbunden sind (etwa Börsenticker-Software)

    Es sollte deutlich geworden sein, dass alle diese »Modelle für indirekten Warenwert« dazu dienen, die aus der Marktwirtschaft herausgefallene Sphäre Freier Software wieder zurück in den Kreislauf der selbstgenügsamen Wert-Maschine zu holen. Da kapitalistische Verwertung auf Knappheit und Ausschluß von Öffentlichkeit beruht, Freie Software aber genau das Gegenteil darstellt, müssen hier Feuer und Wasser in eine »friedliche Koexistenz« gezwungen werden. Doch wie es mit Feuer und Wasser verhält, so auch mit Freier Software und Verwertung: Nur eine kann sich durchsetzen.

    Im neoliberalen Modell Freier Software von ESR gibt es folgerichtig keine wesentlichen Unterschiede zwischen verschiedenen »freien« Softwarelizenzen. Vermutlich hat er nur mit Magengrimmen die GPL trotz des enthaltenen Privatisierungsverbots auf die Liste von »OSI-zertifizierten« Lizenzen gesetzt, da man an der GPL nicht gut vorbeikommt. Bis auf die »Restaurantmethode«, dem Vertrieb Freier Software durch Distributionen, ist keines der oben genannten mit Buchstaben und Geist der GPL vereinbar [16]. Die GPL schließt künstliche Verknappung und Privatisierung von Programmen aus, und das behindert die Verwertung von Software weitgehend.

    2.5.2. Der Bürgerrechtsliberalismus von RMS

    Dem ökonomischen Liberalismus von ESR steht der Bürgerrechtsliberalismus von RMS entgegen. RMS argumentiert (1994), dass Software in privatem Besitz zu Entwicklungen führen würde, die dem gesellschaftlichen Bedarf entgegen läuft. Die Gesellschaft brauche

    • Information, z.B. im Quelltext einseh- und änderbare Programme statt Blackbox-Software;
    • Freiheit statt Abhängigkeit vom Softwarebesitzer;
    • Kooperation zwischen den Bürgern, was die Denunziation von Nachbarschaftshilfe als »Softwarepiraterie« durch die Softwarebesitzer unterminieren würde.

    Das seien die Gründe, warum Freie Software eine Frage der »Freiheit« und nicht des »Preises« sei. Bekannt geworden ist der Satz »Think of »free speech«, not of »free beer««.

    An diesen Kriterien orientiert sich auch die GNU GPL. Sie stellt sicher, dass Software dauerhaft frei bleibt oder ökonomisch formuliert: Sie entzieht Software dauerhaft der Verwertung. RMS ist dennoch keinesfalls gegen den Verkauf Freier Software (1996). Auch die GPL selbst ermöglicht ausdrücklich das Erheben einer Gebühr für den Vertrieb Freier Software.

    RMS formuliert seine Vision gesellschaftlichen Zusammenlebens im GNU-Manifest von 1984 so:

    »Auf lange Sicht ist das Freigeben von Programmen ein Schritt in Richtung einer Welt ohne Mangel, in der niemand hart arbeiten muß, um sein Leben zu bestreiten. Die Menschen werden frei sein, sich Aktivitäten zu widmen, die Freude machen, zum Beispiel Programmieren, nachdem sie zehn Stunden pro Woche mit notwendigen Aufgaben wie Verwaltung, Familienberatung, Reparatur von Robotern und der Beobachtung von Asteroiden verbracht haben. Es wird keine Notwendigkeit geben, von Programmierung zu leben.« (Stallman 1984: Das GNU-Manifest).

    Eine schöne Vision, die ich ohne zu zögern teilen kann. Nur: Wer glaubt, diese Vision unter den Bedingungen der kybernetischen Verwertungsmaschine mit Namen Kapitalismus erreichen zu können, rennt einer Illusion hinterher. Der einzige Zweck der Wert-Maschine ist, aus Geld mehr Geld zu machen – egal wie, egal womit. Freiheit von Mangel, Muße, Freude, Hacking-for-Fun ist darin nicht vorgesehen.

    Die von ESR mit angestoßene Open-Source-Welle führt das lehrbuchartig vor. Es geht überhaupt nicht mehr um gesellschaftliche Freiheit, die nur die Freiheit aller sein kann, sondern es geht um die Frage, wie ich aus etwas »Wertlosem« trotzdem Geld machen kann, wie ich die Freude der Hacker zu Geld machen kann, wie ich die Selbstentfaltung der Menschen in abstrakte, tote Arbeit verwandeln kann. Dieser mächtigen Welle vermag RMS mit dem Ruf nach »Freiheit geht vor« kaum etwas entgegenzusetzen. Vermutlich würde ESR antworten: Natürlich geht Freiheit vor, die ökonomische Freiheit!

    Hieran wird deutlich, dass der Liberalismus eben zwei Seiten hat: Wirtschaftsliberalismus und Bürgerrechtsliberalismus. Robert Kurz arbeitet in seinem eindrucksvollen Werk »Schwarzbuch Kapitalismus« (1999) die gemeinsame Verwurzelung im historischen Liberalismus heraus [17]. Er zeigt, dass auch der Bürgerrechtsliberalismus nur dazu da ist, Menschenfutter für die kybernetische Verwertungsmaschine zu liefern. Wer vom Kapitalismus nicht reden will, soll über die Freiheit schweigen.

    3. Geschichte ist die Geschichte der Produktivkraftentwicklung

    Wer keinen Begriff vom »Wald« hat, für den bleiben auch noch so viele Bäume immer nur Bäume. Wer keinen Begriff von der Produktivkraftentwicklung hat, für den bleibt die Geschichte der Menschheit nur eine Abfolge technischer Innovationen und Erfindungen.

    GNU/Linux ist nicht einfach ein neues, qualitativ hochwertiges Produkt, eine neue Erfindung sozusagen, sondern GNU/Linux steht für eine neue Qualität der Produktivkraftentwicklung. Um diese These zu erläutern, ist es zunächst notwendig den Inhalt und den Sinn des Begriffs der Produktivkraftentwicklung zu verstehen.

    3.1. Produktivkraft der Arbeit

    Wir Menschen unterscheiden uns von den Tieren dadurch, dass wir uns mit den vorgefundenen Existenzbedingungen nicht einfach abfinden, sondern unsere Lebensbedingungen aktiv selbst herstellen. Wir »haben« nicht nur einfach einen biologischen Stoffwechsel, sondern wir verwenden für unseren »Stoffwechsel mit der Natur« selbst hergestellte Arbeitsmittel. Seit Bestehen der Menschheit haben sich die Arbeitsmittel und die Arbeitsformen schon oft verändert. Wie der Zusammenhang von Mensch, Natur und Mitteln, die der Mensch zur Naturbearbeitung einsetzt, historisch jeweils beschaffen ist, faßt der Begriff der Entwicklung der Produktivkraft der Arbeit [18], oder kurz: Produktivkraftentwicklung. Schematisch können wir den Begriff der Produktivkraftentwicklung (=PKE) so darstellen:

    Der aktive Stoffwechsel des Menschen mit der Natur unter Verwendung von Mitteln wird »Arbeit« genannt. Damit faßt der Begriff der Produktivkraftentwicklung auch die historische Veränderung der Arbeit, ist aber nicht mit diesem identisch. Dies wird deutlich, wenn man sich die drei Dimensionen des Begriffs der Produktivkraftentwicklung ansieht:

    • Inhalt der Arbeit: Art der Produkte, der Bezug zur Natur und die verwendeten Mittel zur Herstellung
    • Form der Arbeit: Arbeitsteilung und Arbeitsorganisation
    • Produktivität der Arbeit: produzierte Gütermenge je Zeiteinheit.

    Oft wird die Produktivkraft der Arbeit mit Produktivität der Arbeit verwechselt. Damit werden jedoch die qualitativen Aspekte des Inhalts und der Form der Arbeit in ihren historischen Entwicklungen ausgeblendet. Auch Karl Marx, von dem der Begriff ursprünglich stammt, war nicht frei von solchen Verkürzungen.

    Noch einmal zusammengefaßt: Produktivkraftentwicklung ist ein Verhältnisbegriff. Er faßt das Dreiecksverhältnis des arbeitenden Menschen, der unter Verwendung von Mitteln Stoffwechsel mit der Natur betreibt und auf diese Weise sein Leben produziert. Historisch verändert sich die Produktivkraftentwicklung mit ihren drei Dimensionen nicht kontinuierlich, sondern in qualitativen Sprüngen. Im Schnelldurchlauf durch die Geschichte sollen diese Sprünge nun nachgezeichnet werden.

    Man kann die Geschichte auf Grundlage des Begriffs der Produktivkraftentwicklung in drei große Epochen einteilen. In jeder dieser Epochen steht ein Aspekt des Dreiecksverhältnisses von Mensch, Natur und Mitteln im Brennpunkt der Entwicklung. In den agrarischen Gesellschaften wurde die Produktivkraftentwicklung vor allem hinsichtlich des Naturaspekts entfaltet, in den Industriegesellschaften steht die Revolutionierung des Mittels im Zentrum – na, und was mit dem Menschen als dem dritten Aspekt passiert, ist die spannende Frage, die weiter unten beantwortet wird.

    3.2. Die »Natur-Epoche«: Entfaltung des Naturaspekts der Produktivkraftentwicklung

    Alle Gesellschaften bis zum Kapitalismus waren von ihrer Grundstruktur her agrarische Gesellschaften. Ob matrilineare Gartenbaugesellschaft, patriachalische Ausbeutergesellschaft, Sklavenhaltergesellschaft oder Feudalismus – in allen Gesellschaften stand die Bodenbewirtschaftung in der Landwirtschaft und bei der Gewinnung von Brenn- und Rohstoffen unter Nutzung von einfachen Mitteln sowie menschlicher und tierischer Antriebskraft im Mittelpunkt der Anstrengungen. Mit Hilfe der hergestellter Arbeitsmittel – vom Grabstock bis zum Pflug und zur Bergbautechnik – holten die Menschen immer mehr aus dem Boden heraus, während die Art und Weise der Weiterverarbeitung der Bodenprodukte bis zum Nutzer relativ konstant blieb. Die eigenständige Fortentwicklung der Arbeitsmittel und Werkzeuge war jedoch durch Zünfte und andere Beschränkungen begrenzt.

    Qualitative Veränderungen innerhalb der »Natur-Epoche« zeigen sich vor allen bei der Form der Arbeit. Die landwirtschaftlichen Produzenten im Feudalismus waren mehrheitlich Leibeigene ihrer Feudalherren, waren so im Unterschied zum Sklaven also nicht personaler Besitz. Trotz Abgabenzwang und Frondiensten war der relative Spielraum der Fronbauern zur Entfaltung der Produktivkraft der Arbeit größer als bei den Sklaven, die – da personaler Besitz – gänzlich kein Interesse an der Verbesserung der Produktion hatten. Der Natur angepasste Fruchtfolgen und die Mehrfelderwirtschaft waren wichtige Errungenschaften in dieser Zeit. Aufgrund des höheren Mehrprodukts konnten sich Handwerk und Gewerbe, die von der Bodenbewirtschaftung mitversorgt werden mussten, rasch entwickeln.

    Zusammengefaßt nach den drei Dimensionen der Produktivkraftentwicklung ergibt sich:

    • Inhalt der Arbeit: Die ersten Klassengesellschaften bis an die Schwelle zum Kapitalismus waren durch die Produktion landwirtschaftlicher Produkten bestimmt. Sie waren Agrargesellschaften. Im Feudalismus entstand Handwerk und Gewerbe als bedeutender eigenständiger Zweig.
    • Form der Arbeit: Die Bodenbearbeitung erfolgte mit einfachen Hilfsmitteln. Während die Arbeit der Sklaven durch unmittelbaren Zwang angeeignet wurde, hatten die vorwiegend leibeigenen Bauern trotz Zwangsabgaben und Frondiensten ein gewisses Eigeninteresse an der Verbesserung und Entwicklung der Produktion (Verbesserung der Arbeitsmittel und der Organisation der Produktion: Dreifelderwirtschaft).
    • Produktivität der Arbeit: Folglich war die Produktivität im Feudalismus höher als die in den Vorläufergesellschaften. Auf Grundlage des erweiterten Mehrprodukt konnten sich Handwerk und Gewerbe entfalten.
    3.3. Die »Mittel-Epoche«: Entfaltung des Mittelaspekts der Produktivkraftentwicklung

    Die agrarische Produktion bestimmte zwar die gesellschaftliche Struktur, dennoch gab es in den Städten Lebens- und Produktionsformen, die dem unmittelbaren feudalen Zugriff entzogen waren: »Stadtluft macht frei«. Die Städte wurden nun immer wichtiger für die steigenden repräsentativen und militärischen Bedürfnisse der herrschenden Feudalklasse. Ausgehend von gesicherten bürgerlichen Zonen inmitten des Feudalismus, den Städten, entfalteten Handwerker und vor allem Kaufleute ihre ökonomischen Aktivitäten. Der Einsatz geraubten und erhandelten Kapitals der Kaufleute sowie die Entwicklung von kombinierten Einzelarbeiten der Handwerker in der Manufaktur zum aus einseitigen Teilarbeitern bestehenden »kombinierten Gesamtarbeiter« (Marx 1976/1890, 359) in der Fabrik ermöglichten eine Übernahme der ökonomischen Basis durch die neue bürgerliche Klasse. Mit der Manufakturperiode, auch als Frühkapitalismus bezeichnet, begann die Umstrukturierung des alten feudalen zum neuen bürgerlichen ökonomischen System, das sich schließlich durchsetzte. Die industrielle Revolution sorgte endgültig dafür, dass sich der umgreifende gesamtgesellschaftliche Prozess nach den Maßgaben der kapitalistischen Wertverwertung ausgerichtet wurde.

    Wir sehen, wie Keimformen des Neuen – bei den Handwerkern stand die Mittelbearbeitung schon im Mittelpunkt ihrer Arbeit – in einem neuen Kontext eine neue Funktion bekam und schließlich von allen Schranken befreit die gesamte Gesellschaft umstülpte. Um das genauer zu verstehen, lohnt es sich, den neuen dominanten Gesamtprozess genauer zu betrachten (vgl. auch Meretz 1999a). Im Fokus des neuen dominanten Gesamtprozesses steht die Revolutionierung des Mittelaspekts der Produktivkraftentwicklung. Dies wird sichtbar, wenn man sich die drei Bestandteile des industriellen Prozesses genau untersucht und auf ihre früheren Keimformen zurückführt. Marx (1976/1890, 393) erkannte die drei Bestandteile des industriellen Prozesses:

    • Energiemaschine (bei Marx: »Bewegungsmaschine«)
    • Prozeßmaschine (bei Marx: »Werkzeugmaschine oder Arbeitsmaschine«)
    • Algorithmusmaschine [19] (bei Marx: »Transmissionsmechanismus«)

    Die Keimformen der Energiemaschine liegen in der tierischen und menschlichen Kraftanstrengung. Ihre Übertragung auf eine Maschine sorgt für die ortsunabhängige und erweiterbare Verfügbarkeit von (zunächst mechanischer, später elektrischer) Antriebsenergie. Die Keimformen der Prozeßmaschine liegen in den (mechanischen und chemischen) Handwerkertätigkeiten, die in einem technischen Prozeß vergegenständlicht und damit gleichzeitig entsubjektiviert wurden. Die Keimformen der Algorithmusmaschine lagen im Erfahrungswissen des Handwerkers über die sachliche und zeitliche Abfolge der verschiedenen Prozessschritte. Wir sehen, dass alle drei Bestandteile vorher in einer Person vereint sein konnten. Die große Industrie trennt und entsubjektiviert diese Bestandteile sukzessive und macht sie damit einer eigenständigen wissenschaftlichen Bearbeitung zugänglich. Die modernen Naturwissenschaften und schließlich die Informatik entstanden.

    Marx wies nach, dass die Prozeßmaschine der Ausgangspunkt der industriellen Revolution war – und nicht wie heute noch fälschlich angenommen wird, die Energiemaschine (»Dampfmaschine«). Die Prozeßmaschine war der Kern der »Mittelrevolution«, die Übertragung des Werkzeuges des Handwerkers auf eine Maschine erst erforderte die Dampfmaschine, um den gewaltig steigenden Energiebedarf der Industrie zu befriedigen. Die industrielle Revolution verwissenschaftlichte vor allem die Prozeßmaschine sowie sekundär die Energieproduktion.

    Prozeßmaschine und Algorithmusmaschine waren zunächst noch gegenständlich in einer Maschine vereint. Der algorithmische Produktionsaspekt sollte seine historische Stunde erst später erfahren. Auch rückblickend wird das bisher leider nur unzureichend wahrgenommen. Viele lesen den Marxschen »Transmissionsmechanismus« nur als bloße Energieübertragung und vernachlässigen daher diesen Bestandteil des industriellen Prozesses. Ein schwerer Fehler, denn nur wenn man den algorithmischen Produktionsaspekt erkennt, kann man die nachfolgenden Umwälzungen innerhalb des Kapitalismus auch verstehen. Diese immanenten Umwälzungen stellen fortwährende »Mittel-Revolutionierungen« dar, überschreiten also die »Mittel-Epoche« der Produktivkraftentwicklung nicht.

    Durch die Revolutionierung der Mittel wurden die arbeitenden Menschen zu Anhängseln an den Maschinen degradiert. Frauen und Kinder mußten von nun an in den Fabriken schuften. Anpassung an den Rhythmus der Maschine, geistige Verödung und endlose Arbeitsqual bestimmten den Alltag. Marx zitiert im Kapital eine Reihe bürgerlicher Ökonomen, die zugaben, dass diese Art der Produktion endgültig die »rebellische Hand der Arbeiter ... (nieder-) zwingt«. Gleichzeitig jedoch ermöglicht die Maschinerie in der großen Industrie die Entwicklung neuer Fähigkeiten der Arbeiter und muß »unter entsprechenden Verhältnissen umgekehrt zur Quelle humaner Entwicklung umschlagen« (Marx 1976/1890, 514). Aber gerade die negativen Folgen dieser Produktionsweise für die Psyche der Menschen machen uns heute noch zu schaffen.

    3.3.1. Fordismus – die erste algorithmische Revolution

    Anfänge der Algorithmisierung der Produktion gibt es mit den ersten komplizierten oder kombinierten Werkzeugmaschinen. Die Übertragung der Werkzeugführung des Handwerkers auf eine Maschine vergegenständlichte sein algorithmisches Prozeßwissen. Aus der bloßen Vergegenständlichung handwerklicher Einzelprozesse wird schließlich die wissenschaftliche Bearbeitung des gesamten Produktionsprozesses, die die historische handwerkliche Arbeitsteilung vollends aufhebt:

    »Dies subjektive Prinzip der Teilung fällt weg für die maschinenartige Produktion. Der Gesamtprozeß wird hier objektiv, an und für sich betrachtet, in seine konstituierenden Phasen analysiert, und das Problem, jeden Teilprozeß auszuführen und die verschiednen Teilprozesse zu verbinden, durch technische Anwendung der Mechanik, Chemie usw. gelöst...« (Marx 1976/1890, 401).

    Der Fordismus, benannt nach dem Autohersteller Ford, führte die Algorithmisierung der Produktion konsequent durch. Augenfälligstes Resultat dieser Algorithmisierung war das Fließband, das bald alle Wirtschaftsbereiche als »Leitbild« bestimmte. Die Entfernung jeglicher Reste von Subjektivität der arbeitenden Menschen aus der Produktion war das Programm der Arbeitswissenschaft von Frederick W. Taylor. Robert Kurz formuliert diesen Prozess in drastischer Weise so:

    »Hatte die Erste industrielle Revolution das Handwerkszeug durch ein maschinelles Aggregat ersetzt, das den fremden Selbstzweck des Kapitals an den Produzenten exekutierte und ihnen jede Gemütlichkeit austrieb, so begann nun die Zweite industrielle Revolution in Gestalt der »Arbeitswissenschaft« damit, den gesamten Raum zwischen Maschinenaggregat und Produzententätigkeit mit der grellen Verhörlampe der Aufklärungsvernunft auszuleuchten, um auch noch die letzten Poren und Nischen des Produktionsprozesses zu erfassen, den »gläsernen Arbeiter« zu schaffen und ihm jede Abweichung von seiner objektiv »möglichen« Leistung vorzurechnen – mit einem Wort, ihn endgültig zum Roboter zu verwandeln.« (Kurz 1999, 372).

    Der Mensch wurde zum vollständigen Anhängsel der Maschine, in der der von Ingenieuren vorgedachte Algorithmus des Produktionsprozesses vergegenständlicht war. Diese Produktionsweise basierte auf der massenhaften Herstellung uniformer Güter. Dem entsprachen auf der Seite der Administration die Betriebshierarchien und das Lohnsystem und gesamtgesellschaftlich der Sozialstaat. Dies war auch die hohe Zeit der organisierten Arbeiterbewegung. Ihr Bemühen um straffe Organisation, besonders in den kommunistischen Parteien, hing mit ihren Erfahrungen in der Arbeitsrealität zusammen. Eine zentrale Organisation zur Bündelung von Massen war ihr Ideal. Die einzelnen Menschen waren in der Arbeit und der politischen Organisation lediglich »Rädchen im Getriebe«.

    Marx hebt den Aspekt der Kooperation in der industriellen Produktion positiv hervor:

    »...unter allen Umständen ist die spezifische Produktivkraft des kombinierten Arbeitstags gesellschaftliche Produktivkraft der Arbeit oder Produktivkraft gesellschaftlicher Arbeit. Sie entspringt aus der Kooperation selbst. Im planmäßigen Zusammenwirken mit andern streift der Arbeiter seine individuellen Schranken ab und entwickelt sein Gattungsvermögen.« (Marx 1976/1890, 349).

    Aus der Vorstellung, dass es nicht die Arbeiter seien, die das Zusammenwirken der Arbeiter planen, sondern die Kapitalisten einzig zum Zwecke der Profitmaximierung, schlossen die kommunistischen Parteien, dass die Kapitalisten zu entmachten seien. Im positiven Marxschen Sinne stünde dann der vollen Entfaltung des Gattungsvermögens nichts mehr im Wege – ein Kurzschluss, wie sich zeigen wird.

    3.3.2. Die Krise des Fordismus

    Wenn mit der fordistischen Durchstrukturierung der Gesellschaft die algorithmische Revolution vollendet wurde, wie sind dann die inzwischen gar nicht mehr so neuen Tendenzen der flexibilisierten Produktion und der »Informationsgesellschaft« zu bewerten? Zunächst einmal ist festzuhalten, dass nach einem qualitativen Entwicklungsschritt, also nachdem der umgreifende Gesamtprozess auf die Erfordernisse der neuen bestimmenden Entwicklungsdimension (hier: der Algorithmisierung der Produktion) hin umstrukturiert wurde, die Entwicklung nicht stehen bleibt. Die letzte Stufe als innere Ausfaltung des neuen Systems, als Vordringen der gegebenen Entwicklungstypik in die letzten Winkel der Gesellschaft, ist erst abgeschlossen, wenn sich die inneren Entfaltungsmöglichkeiten des Systems erschöpft haben, wenn Änderungen der Rahmenbedingungen nicht mehr durch Integration und innere Entfaltung aufgefangen werden können, wenn die Systemressourcen aufgebraucht sind (vgl. Schlemm 1996).

    Gleichzeitig entstehen Keimformen neuer Möglichkeiten, und die Veränderung der Rahmenbedingungen, die das System selbst erzeugt, wird zusehends zur Bedrohung für das System selbst. Das alte System erzeugt selbst die Widersprüche, die es auf vorhandenem Entwicklungsniveau nicht mehr integrieren kann. Entfaltung in alter Systemlogik, Herausbildung neuer Keimformen und Widerspruchszuspitzung durch selbst erzeugte systemgefährdende Widersprüche verschränken sich also. In einer solchen Situation befinden wir uns gegenwärtig, und von hier aus kann man auch die Integrationsversuche der Widersprüche in alter Systemlogik bewerten.

    Das System »totaler Algorithmisierung«, die Massenproduktion, die gleichartige Massenbedürfnisse befriedigt, wurde von Marcuse (1967) zutreffend als »eindimensionale Gesellschaft« bezeichnet, die den »eindimensionalen Menschen« hervorbringt. Der Kapitalismus ist mit dem Herausdrängen der Subjektivität aus der Produktion, mit der algorithmischen Vorwegnahme jedes Handgriffes vom Anfang bis zum Ende der Produktion in eine Sackgasse geraten. Fordistische Produktion ist zu starr. Als sich die Zyklen von Massenproduktion und Massenkonsum erschöpft hatten, und ab Mitte der Siebziger Jahre zyklisch Verwertungskrisen einsetzten, begann die innere gesellschaftliche Differenzierung. Nur wer die Produktion flexibel auf rasch ändernde Bedürfnisse einstellen konnte, bestand in den immer kürzeren Verwertungszyklen. Die flexible Produktion vergrößerte den individuellen Möglichkeitsraum und trieb so die Individualisierung voran. Gleichzeitig werden fordistische Errungenschaften wie die sozialstaatlichen Absicherungen abgebaut und immer mehr Menschen aus den Verwertungszyklen ausgegrenzt (»Arbeitslosigkeit«). Nicht nur ökologisch gesehen zehrt das Verwertungssystem seine eigenen Grundlagen langsam auf.

    Zwei Auswege werden versucht. Die erste Variante ist ein technologischer Ansatz, mit dem versucht werden soll, die Starrheit der fordistisch durchalgorithmisierten Produktion aufzulösen. Die zweite Variante besteht in der Re-Integration der menschlichen Subjektivität in die Produktion. Beide Ansätze bedingen einander und werden im folgenden (Kapitel 3.3.3 und Kapitel 3.4.1) dargestellt.

    3.3.3 Toyotismus – die zweite algorithmische Revolution

    Der Toyotismus, benannt nach dem Autohersteller Toyota, versucht als Ausweg die Flexibilität als Merkmal in der Produktion algorithmisch zu vergegenständlichen, er algorithmisiert die Algorithmisierung selbst. Anders als zur Zeit des Fordismus wird nicht bloß der gedachte Produktionsablauf exakt festgelegt und in Formen von Maschinen und starrer Arbeitsorganisation und Hierarchien »gegossen«, sondern es wird die Möglichkeit der Änderbarkeit des Ablaufes, die Manigfaltigkeit der möglichen Einsätze der Werkzeugmaschinen, die Modulariät der Einheiten in der Fließfertigung bereits vorweggenommen und als Merkmal in der Produktion realisiert.

    Diese Algorithmisierung in neuer Größenordnung ist eng verbunden mit dem Übergang von der Hardwareorientierung (die Maschine als vergegenständlichter analoger Algorithmus) zur Softwareorientierung und damit Digitalisierung, also mit der Trennung von Prozeßmaschine und Algorithmusmaschine. Die separierte Algorithmusmaschine ist der Computer, die Algorithmen steuern als Software die flexiblen Prozeßmaschinen. Die Bedeutung des informationellen Anteils in der Produktion wächst beständig, Computer dringen in alle Bereiche vor, die der Produktion vor- und nachgelagert sind. Die informationelle Integration von der Bestellung über das Internet bis zur Auslieferung und Abrechnung der Ware ist das große Ideal.

    Auslöser dieses Entwicklungsschubes sind die veränderten Marktanforderungen. Die Verwertung können nurmehr diejenigen sicherstellen, die in kurzer Zeit auf geänderte Marktanforderungen reagieren können. Nicht die Fähigkeit zur massenhaften Produktion eines nachgefragten Produkts überhaupt entscheidet (wie im Fordismus), sondern die Fähigkeit zur Realisation dieser Anforderung innerhalb kürzester Zeit. Dieser technologische Ausweg ist sehr begrenzt. Mit dem Postulat des Entstehens einer Informationsgesellschaft werden Lösungen versprochen, die zahlreiche globale Probleme endlich beseitigen sollen. Doch dieses Postulat ist weder neu noch real, sondern entlarvt sich inzwischen auch in der Praxis als ideologische Konstruktion (vgl. Meretz 1996).

    Zusammenfassend nach den drei Dimensionen der Produktivkraftentwicklung:

    • Inhalt der Arbeit: Der Kapitalismus produziert Güter mit industriellen Mitteln. Zweck der Produktion ist der Verkauf der Güter und damit die Realisierung des Profits. Der Gebrauchswert der Güter interessiert nur als Mittel zum Zweck der Verwertung.
    • Form der Arbeit: Der Einsatz von Technik und Wissenschaft ist das Mittel, um Arbeit und Produktion zu entwickeln. Der Fordismus versucht unter Einsatz dieses Mittels den subjektiven Faktor aus der Produktion auszuschließen, während der Toyotismus ihn wieder reintegrieren will.
    • Produktivität der Arbeit: Die Produktivität konnte mit fordistischen Mitteln gegenüber der Phase der Industriellen Revolution beträchtlich gesteigert werden. Quelle war die Revolutionierung des algorithmischen Produktionsaspektes. Der Toyotismus versucht die Quadratur des Kreises: Durch Algorithmisierung der Algorithmisierung, durch Festlegung des Flexiblen, durch Vorschreiben von Kreativität sollen die Nachteile des Fordismus aufgehoben werden.
    3.4. Die »Menschen-Epoche«: Entfaltung des Menschen an und für sich

    Nach agrarischer und industriell-technischer Produktivkraftentwicklung bleibt eine Dimension im Verhältnis von Mensch, Natur und Mitteln, die noch nicht Hauptgegenstand der Entfaltung war, und das ist der Mensch selbst. Doch der Mensch ist definitionsgemäß bereits »Hauptproduktivkraft«, soll er sich nun »selbst entfalten« wie er die Nutzung von Natur und Technik entfaltet hat? Ja, genau das! Bisher richtete der Mensch seine Anstrengungen auf Natur und Mittel außerhalb seiner selbst und übersah dabei, dass in seiner gesellschaftlichen Natur unausgeschöpfte Potenzen schlummern. Diese Potenzen waren bisher durch Not und Mangel beschränkt oder die Einordnung in die abstrakte Verwertungsmaschinerie kanalisiert. Sie freizusetzen, geht nur auf dem Wege der unbeschränkten Selbstentfaltung jedes einzelnen Menschen, der »Entfaltung des Menschen an und für sich«. Was ist damit gemeint?

    Die Wendung »an sich« und »für sich« und »an und für sich« kommt von Hegel und bedeutet verkürzt folgendes [20]:

    • »An sich« bedeutet »der Möglichkeit nach«. Im Zusammenhang hier ist das der Möglichkeitsraum des Gattungswesens Mensch. Dieser Raum der Möglichkeiten wird durch die gesellschaftliche Natur des Menschen bestimmt. »An sich« hat der Mensch alle Möglichkeiten, nur...
    • »Für sich« oder übersetzt: »der realisierten Form nach« kann er seine Potenzen nicht entfalten, da einer Entfaltung zahlreiche Einschränkungen entgegenstehen. Diese Einschränkungen resultieren aktuell aus der kapitalistischen Grundstruktur unserer Gesellschaft, die durch Konkurrenz und das Durchsetzen auf Kosten anderer statt globaler Kooperation und gemeinsamer globaler Entwicklung bestimmt ist.
    • »An und für sich« bedeutet schließlich die Aufhebung des Widerspruch zwischen Möglichkeit und Realisierung. Der Mensch entfaltet seine Gattungspotenzen in globaler Kooperation.

    Die unbeschränkte Entfaltung des Menschen, also das Fallenlassen aller Verstümmlungen, Behinderungen und Einschränkungen, die der Kapitalismus für die Menschheit bedeutet, setzt einen dramatischen Entwicklungsschub der Produktivkraft der Arbeit frei. Das bedeutet, dass die Produktivkraft der Arbeit nicht mehr vorherrschend durch Technik und Wissenschaft (der »alten« Weise) gesteigert wird, sondern durch die Selbstentfaltung des Menschen in globaler Kooperation mit anderen. Damit ist auch die »Selbstentfaltung« und die »Entfaltung der Anderen« kein Widerspruch mehr – wie wir das jetzt unter unseren Bedingungen erleben. Im Gegenteil, das Verhältnis kehrt sich geradezu um: Für meine Selbstentfaltung ist die Entfaltung der Anderen die Voraussetzung – und umgekehrt. Selbstentfaltung als Selbstzweck zum Nutzen aller!

    Der Begriff der Selbstentfaltung darf dabei nicht mit dem öfter gebrauchten Begriff der »Selbstverwirklichung« verwechselt werden. Es geht nicht darum, eine persönliche »Anlage« oder »Neigung« in die Wirklichkeit zu bringen, sie wirklich werden zu lassen. Diese Vorstellung individualisiert und begrenzt die eigentlichen Möglichkeiten des Menschen: Wenn es »wirklich« geworden ist, dann war's das. Entfaltung bedeutet demgegenüber schrittweise und kumulative Realisierung menschlicher Möglichkeiten auf dem jeweils aktuell erreichten Niveau. Selbstentfaltung ist also unbegrenzt und geht nur im gesellschaftlichen Kontext. Selbstentfaltung geht niemals auf Kosten anderer, sondern setzt die Entfaltung der anderen notwendig voraus, da sonst meine Selbstentfaltung begrenzt wird. Im Interesse meiner Selbstentfaltung habe ich also ein unmittelbares Interesse an der Selbstentfaltung der anderen. Diese kumulative gesellschaftliche Potenz läuft unseren heutigen Bedingungen, unter denen man sich beschränkt nur auf Kosten anderer »verwirklichen« kann, total zuwider.

    Was das ökonomisch bedeutet, habe ich an anderer Stelle versucht zu beschreiben (Meretz 1999a). Nur soviel sei skizziert: Eine Globalgesellschaft oder Weltgesellschaft kann nicht zentral geplant und verwaltet werden, die bekannten Versuche sind ja auch gescheitert. Sie wird sich »selbst planen«. Modell ist also nicht eine Top-down-Struktur, in der um so mehr bestimmt je höher er(sie) sitzt, sondern eine vernetzte Struktur aus kleineren Einheiten. »Klein« ist dabei relativ und hängt von der Aufgabe ab.

    3.4.1. Selbstentfaltung verwerten?

    Auch die Sachwalter des Kapitals als Exekutoren der Wertverwertungsmaschine haben erkannt, dass der Mensch selbst die letzte Ressource ist, die noch qualitativ unentfaltete Potenzen der Produktivkraftentwicklung birgt. In seiner maßlosen Tendenz, alles dem Verwertungsmechanismus einzuverleiben, versucht das Kapital auch diese letzte Ressource auszuschöpfen. Die Methode ist einfach: Die alte unmittelbare Befehlsgewalt über die Arbeitenden, die dem Kapitalisten qua Verfügung über die Produktionsmittel zukam, wird ersetzt durch den unmittelbaren Marktdruck, der direkt auf die Produktionsgruppen und Individuen weitergeleitet wird. Sollen doch die Individuen selbst die Verwertung von Wert exekutieren und ihre Kreativität dafür mobilisieren – bei Gefahr des Untergangs und mit der Chance der Entfaltung. Wilfried Glißmann, Betriebsrat bei IBM in Düsseldorf, beschreibt den Mechanismus so:

    »Die neue Dynamik im Unternehmen ist sehr schwer zu verstehen. Es geht einerseits um »sich-selbst-organisierende Prozesse«, die aber andererseits durch die neue Kunst einer indirekten Steuerung vom Top-Management gelenkt werden können, obwohl sich diese Prozesse doch von selbst organisieren. Der eigentliche Kern des Neuen ist darin zu sehen, dass ich als Beschäftigter nicht nur wie bisher für den Gebrauchswert-Aspekt, sondern auch für den Verwertungs-Aspekt meiner Arbeit zuständig bin. Der sich-selbst-organisierende Prozeß ist nicht anderes als das Prozessieren dieser beiden Momente von Arbeit in meinem praktischen Tun. Das bedeutet aber, dass ich als Person in meiner täglichen Arbeit mit beiden Aspekten von Notwendigkeit oder Gesetzmäßigkeit unmittelbar konfrontiert bin. Einerseits mit den Gesetzmäßigkeiten im technischen Sinne (hinsichtlich der Schaffung von Gebrauchswerten) und andererseits mit den Gesetzmäßigkeiten der Verwertung. Ich bin als Person immer wieder vor Entscheidungen gestellt. Die beiden Aspekte zerreißen mich geradezu, und ich erlebe dies als eine persönlich-sachliche Verstrickung.« (Glißmann 1999, 152)

    Nun verschleiert die Aussage, vor dem toyotistischen Umbruch nichts mit der Verwertung zu tun gehabt zu haben, sicher die realen Verhältnisse. Richtig ist aber, dass nach dem Umbruch die bisher nur mittelbare Marktkonfrontation einer unmittelbaren gewichen ist. So wie sich die Wertverwertung gesamtgesellschaftlich »hinter dem Rücken« der Individuen selbst organisiert, ausgeführt durch das »personifizierte Kapital« [21], die Kapitalisten (Manager etc.), so werden nun die Lohnabhängigen selbst in diesen Mechanismus eingebunden. Resultate dieser unmittelbaren Konfrontation mit dem Verwertungsdruck sind annähernd die gleichen wie zu Zeiten der alten Kommandoorganisation über mehrere Hierarchieebenen: Ausgrenzung vorgeblich Leistungsschwacher, Kranker, sozial Unangepasster, Konkurrenz untereinander, Mobbing, Diskrimination von Frauen etc. – mit einem wesentlichen Unterschied: Wurde vorher dieser Druck qua Kapitalverfügungsgewalt über die Kommandostrukturen im Unternehmen auf die Beschäftigten aufgebaut, so entwickeln sich die neuen Ausgrenzungsformen nahezu »von selbst«, d.h. die Beschäftigen kämpfen »jeder gegen jeden«. In der alten hierarchischen Kommandostruktur war damit der »Gegner« nicht nur theoretisch benennbar, sondern auch unmittelbar erfahrbar. Gegen das Kapital und seine Aufseher konnten Gewerkschaften effektiv Gegenmacht durch Solidarität und Zusammenschluß organisieren, denn die Interessen der abhängig Beschäftigten waren objektiv wie subjektiv relativ homogen. In der neuen Situation, in der die Wertverwertung unmittelbar und jeden Tag an die Bürotür klopft, sind Solidarität und Zusammenschluß unterminiert – gegen wen soll sich der Zusammenschluß richten? Gewerkschaften und Marxismen ist der Kapitalist abhanden gekommen! War die alte personifizierende Denkweise und entsprechende Agitationsform schon immer unangemessen, schlägt sie heute erbarmungslos zurück. Nicht mehr »der Kapitalist« (oder »das Kapital« oder »der Boss«) ist der Gegner, sondern »der Kollege« oder »die Kollegin« nebenan. Die IBM-Betriebsräte nennen das »peer-to-peer-pressure-Mechanismus« (Glißmann 1999, 150).

    Die unbeschränkte Selbstentfaltung des Menschen ist unter den Bedingungen der subjektlosen Selbstverwertung von Wert als rückgekoppelter Kern der »schönen Maschine« undenkbar. Selbstentfaltung bedeutet ja gerade, dass sich das Subjekt selbst entfaltet, und zwar jedes Subjekt und das unbegrenzt. Dennoch gibt es auch unter entfremdeten Bedingungen der abstrakten Arbeit neue Möglichkeiten, denn neben den Effekten der Entsolidarisierung gibt es gleichzeitig auch einen größeren Handlungsspielraum, ein Mehr an Entfaltungsmöglichkeiten und Verantwortung als zu alten Kommandozeiten. In der unmittelbaren Arbeitstätigkeit sind die Handlungsrahmen weiter gesteckt als vorher:

    »Es gilt das Motto: »Tut was ihr wollt, aber ihr müßt profitabel sein«« (Glißmann 1999, 151).

    Innerhalb dieses vergrößerten Handlungsrahmens kann ich in größerem Maße als früher meine individuellen Potenzen entfalten, weil ich selbst an meiner eigenen Entfaltung interessiert bin, weil es Spaß macht und meiner Persönlichkeit entspricht. Die Bedingungen, dass ich mich selbst als Hauptproduktivkraft entfalte, sind im Vergleich zu meinen Eltern und Großeltern schon besser geworden, gleichwohl geschieht dieses Mehr an Entfaltung immer noch unter entfremdeten Bedingungen. Die Entfaltung ist nur möglich, solange ihre Ergebnisse verwertbar sind, solange ich profitabel bin. Sogar die Love-Parade wird damit zum profitablen Geschäft. In meiner Person spiegelt sich damit der unter unseren Bedingungen nicht auflösbare Widerspruch von Selbstentfaltung und Verwertung, von Entfaltung der Hauptproduktivkraft Mensch an-und-für-sich und entfremdeter Produktivkraftentwicklung.

    3.4.2. Jenseits der Verwertung

    Wie sieht die Aufhebung des Widerspruches von Selbstentfaltung und Verwertungszwang in Überschreitung unserer Bedingungen aus? Es geht um die Umkehrung des Satzes von Marx, wonach die »gesellschaftliche Bewegung« durch eine »Bewegung von Sachen« kontrolliert wird, »statt sie zu kontrollieren«. Marx hätte das so sagen können:

    »Die gesellschaftliche Bewegung wird von den Menschen bewußt bestimmt. Die Bewegung von Sachen wird von den Menschen kontrolliert und dient einzig dem Zweck, ein befriedigendes Leben zu gewinnen.« (Marx, nie aufgeschrieben).

    Die Alternative zur abstrakten subjektlosen selbstorganisierenden Vermittlung der gesellschaftlichen Reproduktion durch den Wert (als Bewegung von Sachen) ist die konkrete selbstorganisierte Vermittlung durch die handelnden Menschen selbst – das ist so einfach wie logisch! Oder anders formuliert: Die abstrakte Vergesellschaftung [22] über den Wert wird ersetzt durch eine konkrete Vergesellschaftung der handelnden Menschen selbst. Bedeutet das ein Zurück zu den alten Zeiten der »Natur-Epoche«, in der die Vergesellschaftung personal organsiert war – in Form von persönlichen Abhängigkeitsverhältnissen? Nein, so wie die »Mittel-Epoche« die »Natur-Epoche« aufgehoben hat, so wird die Epoche der menschlichen Selbstentfaltung alle vorherigen Entwicklungen aufheben. »Aufheben« bedeutet dabei sowohl Ablösen als auch Bewahren und in einem völlig neuen Kontext fortführen. Es ist klar, das Menschen natürlich weiter Nahrungsmittel und industrielle Güter produzieren werden, doch es ist ebenso klar, dass sie dies nicht in der gleichen Weise wie bisher tun werden – ganz einfach, weil die bisherige Produktionsweise die Reproduktionsgrundlagen der Menschheit systematisch zerstört.

    Wie geht es Dir, wenn Du diese Zeilen liest? Denkst Du auch »Das ist ja utopisch«? Dann geht es Dir genauso wie den meisten. Die herrschende abstrakte Vergesellschaftungsform über den Wert hat alle Lebensbereiche so weit durchdrungen, dass ein Leben ausserhalb dessen schier undenkbar erscheint. Kannst Du Dir ein Leben ohne Geld, das über die Lebensmöglichkeiten von Menschen bestimmt, vorstellen? Ein Leben mit »einfach nehmen« statt »kaufen«? Es ist nicht einfach, das zu denken. Hier geht es uns zunächst einmal darum, zu begründen, dass die Wertvergesellschaftung nicht das Ende der Geschichte darstellt, sondern dass eine personale Vergesellschaftung historisch-logisch die entfremdete Form aufheben kann.

    Die Tatsache, dass es eine abstrakte Instanz, den Wert, gibt, über den sich die gesellschaftlichen Beziehungen regulieren, hat auch eine positive Funktion: Sie entlastet die Gesellschaftsmitglieder, jeden Einzelnen individuell von der Notwendigkeit, »die ganze Gesellschaft« zu denken. Ich muss mich nur mit meinem unmittelbaren Umfeld beschäftigen, alles andere regelt sich schon. So paradox es klingt: Die personalisierende Denkweise ist unter entfremdeten Bedingungen nahegelegt, obwohl sich die Gesellschaft gerade nicht über das Wollen von Personen, sondern über den abstrakten Mechanismus der maßlosen Wertvermehrung reguliert. Hieraus haben linke Bewegungen den Schluss gezogen, dass die Totalität des amoklaufenden Werts durch eine kontrollierte Totalität einer umfassenden gesellschaftlichen Planung abgelöst werden müsse. Wie wir wissen, sind alle Versuche mit gesellschaftlicher Gesamtplanung gescheitert. Diese praktische Erfahrung ist auch theoretisch nachvollziehbar, denn die kommunikativen Aufwände, die notwendig wären, um die individuellen und die gesellschaftlichen Bedürfnisse miteinander zu vermitteln, also die Vergesellschaftung praktisch zu leisten, sind schier unendlich hoch [23]. Selbst Räte oder andere Gremien können das Problem der immer vorhandenen Interessenkonflikte nicht stellvertretend aufheben. Auch für den Einzelnen ist die Notwendigkeit, die eigenen Interessen mit unendlich vielen anderen Interessen zu vermitteln, eine völlige Überforderung.

    Eine neue Vergesellschaftungsform kann nur den gleichen individuell entlastenden Effekt haben, wie die sich selbst organisierende Wertmaschine – nur, dass sie ohne Wert funktioniert! Gesucht ist also ein sich selbstorganisierender »Mechanismus«, der einerseits die Vergesellschaftung quasi »automatisch« konstituiert, andererseits aber die abstrakte Vergesellschaftung durch eine personal-konkrete Form ablöst. Das hört sich wie ein Widerspruch an, ist es aber nicht! Man muss sich nur von der Vorstellung verabschieden, die Gesellschaft müsse planvoll von irgendeiner Art zentraler Instanz gelenkt werden. Diese Vorstellung enthält immer das Konzept eines Innen-Außen: Die Planer – ob Räte, Behörde, Diktatoren – stehen gleichsam außerhalb der Gesellschaft und planen diese. Die Planer planen für uns, oder noch deutlicher: sie planen uns. Das geht aber ganz grundsätzlich nicht, denn kein Mensch ist planbar und vorhersehbar. Die Alternative zu stellvertretenden Planung kann nur die Selbstplanung der Gesellschaft sein.

    Eine Selbstplanung der Gesellschaft setzt strukturell eine Konvergenz allgemeiner Interessen voraus. Das ist im Kapitalismus unmöglich. Der Kapitalismus kennt überhaupt nur Partialinteressen, die jeweils nur gegen andere Partialinteressen durchsetzbar sind. Eine gelungene Vermittlung der Partialinteressen trägt dann den Namen »Demokratie« – das kann es aber nicht sein. Kann es aber eine Konvergenz allgemeiner Interessen geben? Sind die individuellen Interessen und Wünsche nicht sehr verschieden, will nicht eigentlich jeder doch irgendwie etwas anderes? Ja, und das ist auch gut so! Unter unseren Bedingungen schließt diese Frage jedoch immer mit ein, diese »Wünsche«, dieses »andere Wollen« muß auch gegen andere – ob individuell oder im Zusammenschluss mit anderen, die die gleichen Partialinteressen haben – durchgesetzt werden. Wir hatten aber vorher herausgefunden, dass die Selbstentfaltung des Menschen nur funktioniert, wenn sich alle entfalten können und dies auch real tun. Unter Bedingungen der Selbstentfaltung habe ich ein unmittelbares Interesse an der Selbstentfaltung der anderen Menschen. Etwas vereinfacht gesprochen steht der Win-Loose-Situation im Kapitalismus eine Win-Win-Situation in der zukünftigen Gesellschaft gegenüber.

    Schön und gut, aber wie kommen denn nun die Brötchen auf den Tisch? Was ersetzt denn nun den Wert als selbstorganisierenden Mechanismus der Vergesellschaftung? Aber das ist es doch gerade: Die Selbstentfaltung des Menschen ersetzt diesen abstrakten Mechanismus durch eine personal-konkrete Vermittlung der Menschen! Selbstentfaltung bedeutet ja nicht Abschaffung der Arbeitsteilung. Das bedeutet, ich beziehe mich weiterhin nicht auf die »gesamte« Gesellschaft, sondern weiterhin nur auf den Ausschnitt der Gesellschaft, der mir zugekehrt ist. Wie groß dieser Ausschnitt ist, entscheide ich je nach Lage. Entfalten sich die Menschen um mich herum und ich darin fröhlich vor sich hin, dann besteht kein Grund, den gesellschaftlichen Ausschnitt zu vergrößern. Gibt es aber Einschränkungen meiner Selbstentfaltung, die nicht meinem unmittelbaren Handeln zugänglich sind, dann werde ich den Blick weiten, um die Ursachen der gemeinsamen Einschränkungen aus der Welt zu schaffen. Da mein Leben nicht mehr auf die Heranschaffung des Abstraktums »Geld« ausgerichtet ist, bekommen die Einschränkungen für mich eine völlig neue konkrete Bedeutung: Sie schmälern in direkter Weise meinen Lebensgenuss. Da diese Einschränkungen meiner Selbstentfaltung auch für alle anderen beschränkend sind, liegt es unmittelbar nahe, die Einschränkungen im gemeinsamen Interesse zu beseitigen. Im eigenen und gleichzeitig allgemeinem Interesse werden wir uns die personalen und konkreten Vermittlungsformen suchen, die notwendig sind, um Einschränkungen unseres Lebensgenusses aus der Welt zu schaffen. Allgemeiner formuliert: Jedes menschliche Bedürfnis findet auch seine Realisierung – und ist das Bedürfnis mein einzig alleiniges auf der Welt, dann realisiere ich es eben selbst. Da das aber bei den Brötchen auf dem Tisch nicht der Fall sein dürfte, wird es für das Problem »Brötchen auf dem Tisch« eine allgemeine Lösung geben.

    Zusammengefaßt nach den Dimensionen der Produktivkraftentwicklung ergibt sich folgendes Bild:

    • Inhalt der Arbeit: Die Weltgesellschaft produziert weiterhin Güter mit industriellen Mitteln, jedoch ist die eigentliche materielle Herstellung gegenüber der planenden und konstruierenden Vorbereitung unbedeutend geworden. Die »Informationsgesellschaft« kommt hier auf ihren Begriff (vgl. Merten 2000). Die Produktion orientiert sich an der Nützlichkeit der Produkte, was destruktive Produktionsformen, die die Lebensqualität einschränken können, ausschließt.
    • Form der Arbeit: Die unbeschränkte Selbstentfaltung des Menschen ist das Mittel, um Arbeit und Produktion zu entwickeln. Dabei verliert die »Arbeit« ihren alten Charakter der Beseitigung von Notdurft, sondern sie wird zum Mittel der individuellen Entfaltung des menschlichen Gattungsvermögens. Die »alte Arbeit« als Maloche und Zwang hebt sich damit selbst auf, denn die Selbstentfaltung ist nicht Zweck »besserer Arbeit«, sondern Selbstzweck.
    • Produktivität der Arbeit: Eine hohe Produktivität ist die Bedingung der Selbstaufhebung der »alten Arbeit«. Die Produktivität bemisst sich dabei nicht am quantitativen Güterausstoß, sondern an der Gewinnung von Lebensqualität für alle Menschen.
    3.5. Zusammenfassung

    Menschliches Leben basiert auf dem Stoffwechsel mit der Natur. Durch Arbeit unter Nutzung von Mitteln betreibt der Mensch diesen Stoffwechsel. Historisch verläuft diese Stoffwechselbeziehung des Menschen zur Welt in qualitativ unterscheidbaren Epochen ab. Jeweils ein Aspekt des Mensch-Natur-Mittel-Verhältnisses steht in den Epochen im Mittelpunkt der Entfaltung, jede nachfolgende Epoche baut auf dem Entwicklungsgrad der vorhergehenden Epoche auf. In den agrarischen Gesellschaften dominiert der Naturaspekt, in den Industriegesellschaften steht das Mittel im Zentrum, und die zukünftige Gesellschaft wird durch die volle Entfaltung der menschlichen Subjektivität, wird durch die Selbstentfaltung des Menschen bestimmt sein. Diese Entwicklungsrichtung der Selbstentfaltung des Menschen wird von den Kapitalvertretern gesehen. Sie versuchen die »Ressource Mensch« unter die Bedingung der kapitalistischen Vergesellschaftung zu stellen.

    Die nachfolgend dargestellte Abbildung dampft das Gesagte noch einmal beträchtlich ein. Anhand der Übersicht wird deutlich, wo wir heute stehen: an der Schwelle zu einem neuen Qualitätssprung sowohl in Produktivkraftentwicklung als auch Gesellschaftsformation.


    Bild anklicken, um es vergrößert anzuzeigen. Danach im Browser auf "zurück" klicken.

    Abb. 2: Die drei Epochen der Produktivkraftentwicklung

    4. Freie Software für freie Menschen in einer freien Weltgesellschaft

    Nach so ausführlicher Vorbereitung liegen die Schlußfolgerungen nun auf der Hand. Keine neue Gesellschaft taucht aus dem Nichts auf und steht am nächsten Morgen vor der Tür. Keine neue Gesellschaft löst die alte ohne Widerstand ab. Zunächst entwickeln sich Keime des Neuem in den Nischen des Alten. Schließlich wird das Neue so mächtig, dass die Verwalter des Alten Konzessionen machen müssen und das Neue gleichzeitig bekämpfen und verhindern wollen. Das Neue wird sich dann durchsetzen, wenn es effektiv besser ist als das Alte. Dabei ist es klüger, nicht auf dem ureigenen Terrain des Alten zu kämpfen, sondern die Spielregeln zu ändern und sich auf neuem Terrain zu behaupten.

    Für solch ein Modell steht Linux und die Freie Software. Die Bewegung Freier Software hat nicht einfach ein neue, bessere Firma gegründet und bessere proprietäre Software entwickelt (das hat Netscape versucht und ist gescheitert). Sie hat die Spielregeln verändert, den Quelltext offen gelegt und ein kollektives globales Entwicklungsmodell installiert. Interessant ist hierbei in langer Perspektive nicht das Produkt, sondern die neue Art und Weise der Produktivkraftentwicklung. Diskussionen über die Frage, ob Freie Software eher zum Kapitalismus, zum Anarchismus oder zum Kommunismus kompatibel ist, gehen an der Sache vorbei (vgl. Perkins 1998 und nachfolgende Debatte). Die Frage ist zunächst nicht, welche Gesellschaftsformation die angemessene ist, sondern wie die Arbeit beschaffen sein muß, damit sich in ihr der Mensch als Subjekt voll entfalten kann. Linux hat gezeigt, dass das gehen kann.

    Linux als Entwicklungsmodell nimmt einiges der neuen Gesellschaft vorweg. Wir beobachten, wie sowohl beim Einzelnen als auch im kollektiven Zusammenhang eines Projekts ein großer Kreativitäts- und Entwicklungsschub freigesetzt wird. Selbstentfaltung und Entfaltung der Anderen gehen hier schon tendentiell zusammen. Es gibt keinen großen Planer, der alle Projekte bestimmt, sondern jedes Projekt bestimmt sich selbst. Übergreifend gibt es sowohl Meetings und informelle Treffen wie auch die gemeinsame Vereinbarung verbindlicher Standards (z.B. als »Request for Commments«: RFC in der offenen Internet Engineering Task Force: IETF, vgl. Bradner 1999), an die sich die freien Gruppen eher halten als Softwarefirmen, die proprietäre Software entwickeln.

    Wir beobachten auch die Tendenz der Kommerzialisierung der Bewegung Freier Software. Das ist nicht verwunderlich, schließlich leben wir im Kapitalismus. Und es ist auch klar, dass große Firmen wie IBM, Netscape, Lotus etc. auf den fahrenden Zug aufspringen, um ihre Marktanteile – als Abstauber sozusagen – zu wahren. Diese Entwicklung muß man nüchtern beobachten und bewerten. Eine moralische Verdammnis individueller Handlungen ist unangebracht. Vielleicht ist es möglich, dass die freie Softwarebewegung über Patente und andere Restriktionen geknebelt wird. Vielleicht lassen sich auch Teile der Bewegung »einkaufen« und damit zurück in die proprietäre Software führen (z.B. bei Software mit »weichen« Nicht-GNU-Lizenzen). Aber die Idee und die Erfahrung der Power globaler, vernetzter und kollektiver Entwicklung von hervorragenden nützlichen Produkten für alle verschwindet nicht mehr.

    Linux als Produkt und als neues Modell der Produktivkraftentwicklung ist »unabschaffbar«!

    4.1. Was können wir tun?

    Wir sollten in die Offensive gehen! Wir sollten uns zum antikapitalistischen Gehalt Freier Software bekennen! Wir können sagen »GNU/Linux ist nicht wert – und das ist gut so!«. Freiheit gibt es nur außerhalb der Verwertungs-Maschine. Die Freie Software da herausgeholt zu haben, war eine historische Tat. Jetzt geht es darum, sie draußen zu behalten, und nach und nach weitere Bereiche der kybernetischen Maschine abzutrotzen. Dafür gibt es zahlreiche Ansätze, wie sie z.B. Stefan Merten (2000) im Beitrag »Gnu/Linux – Meilenstein auf dem Weg in die GPL-Gesellschaft« skizziert.

    Wie kann das gehen, wird sich sicher so mancher fragen. Man kann doch nicht einfach rausgehen aus den Verwertungszusammenhängen – wovon soll ich leben? Das sind berechtigte, zwingende Fragen. Ich denke, dass es nicht darum geht, sofort und zu 100% aus jeglicher Verwertung auszusteigen. Es geht darum, einen klaren Blick für die Zwangsmechanismen der kybernetischen Verwertungsmaschinerie zu bekommen, und danach das individuelle Handeln zu bemessen. Ich will einige Bespiele nennen.

    Konkrete und abstrakte Arbeit: Wenn ich für meine Reproduktion meine Arbeitskraft verkaufen muß, dann sollte ich nicht versuchen, darin Erfüllung zu finden. Natürlich ist es schön, wenn die Arbeit mal Spaß macht. Doch Lohnarbeit bedeutet abstrakte Arbeit, und dabei kommt es eben nicht auf meine Bedürfnisse, sondern die externen Zielvorgaben an. Selbstentfaltung gibt es nur außerhalb, z.B. in Freien Softwareprojekten. Wenn ich die Erwartungshaltung an die Lohnarbeit nicht habe, kann ich sie auch leichter begrenzen. Und das ist aufgrund des endlosen Drucks in Softwareprojekten eine dringende Notwendigkeit.

    Eine Firma gründen: Manche denken, sie könnten der abhängigen entfremdeten Arbeit dadurch entkommen, indem sie eine eigene Firma gründen. Das ist so ziemlich die größte Illusion, die man sich machen kann. Als Firmeninhaber bin ich direkt mit den Wertgesetzen der kybernetischen Maschine konfrontiert. Die eigene Entscheidung besteht nur darin, in welcher Weise ich diese Gesetze exekutiere, welches Marktsegment ich besetze, welchen Konkurrenten ich aus dem Feld steche usw. Ich bin mit Haut und Haaren drin, muß permanent mein Handeln als das Richtige gegenüber allen rechtfertigen. Eine Distanzierung ist hier noch schwerer als bei der entfremdeten Lohnarbeit.

    Verwertete Entfaltung: Die eigene Selbstentfaltung ist die letzte unausgeschöpfte Ressource der Produktivkraftentwicklung. Das wissen auch die Exekutoren des Wertgesetzes, die die Selbstentfaltung der Verwertung unterordnen wollen. Sie bauen die Hierarchien ab, geben uns mehr Entscheidungsbefugnisse und Flexibilität bei der Arbeitszeit. Die Stechuhren werden abgeschafft, weil man sie nicht mehr braucht. Die Zusammenführung der beiden Rollen des Arbeitskraftverkäufers und des Wert-Gesetz-Exekutors in einer Person ist der (nicht mehr so) neue Trick. Fallt darauf nicht rein! Die »Neue Selbständigkeit« kann zur Hölle werden [24], denn Verwertung und Selbstentfaltung sind unvereinbar.

    Selbstentfaltung: Die unbeschränkte Entfaltung der eigenen Individualität, genau das zu tun, was ich wirklich tun will, ist nur außerhalb der Verwertungs-Maschine möglich. Nicht zufällig war es der informatische Bereich, in dem wertfreie Güter geschaffen wurden. Uns fällt es noch relativ leicht, das eigene Leben abzusichern. Wir werden gut bezahlt, finden schnell einen Job. Freie Software zu entwickeln, ist kein Muß, es ist ein Bedürfnis. Wir sind an Kooperation interessiert, und nicht an Verdrängung. Die Entwicklung Freier Software ist ein Beispiel für einen selbstorganisierten Raum jenseits der Verwertungsmaßstäbe. Nur dort ist Selbstentfaltung möglich.

    Mit diesen Beispielen möchte ich für Nüchternheit, Klarheit und Offenheit plädieren – im Umgang mit anderen und sich selbst. Dazu gehört für mich auch, wieder über das gesellschaftliche Ganze zu sprechen, denn das sollten wir nicht den wirtschafts- oder bürgerrechtsliberalen Interpreten überlassen. Der Kapitalismus ist nichts dämonisches, man kann ihn verstehen und sein Handeln daran ausrichten. Dann hat Freie Software als wertfreie Software auch ein Chance, dann ist Freie Software ein lebendiges Beispiel für Keimformen einer neuen Gesellschaft.

    5. Meta-Text

    5.1. Versionen-Geschichte

    • Version 1.00, 01.05.2000: Erster Entwurf für die Buchfassung
    • Version 1.01, 03.07.2000: Einbau der Zeittafel und des Glossars.

    5.2. Glossar: Abkürzungen und Begriffe

    Apache: von »A Patchy Server« (etwa: »ein geflickter Server«); bekanntester freier Web-Server.

    Applikation: Anwendungs-Programm (z.B. Web-Browser).

    ARC: Augmentation Research Center am Stanford Research Institute; unter Doug Engelbart in den 60ern viele, erst wesentlich später realisierte Erfindungen und Konzepte: E-Mailing, Mailinglisten, Textverarbeitung, Maus als Eingabegerät, Fenstertechnik, vernetzte Hypertexte.

    ARPA: Advanced Research Projects Agency; Koordinierungstelle zur Forschungsförderung beim DoD (Department of Defense) der USA.

    ARPAnet: Vorläufer des Internets, gefördert durch die ARPA, realisiert durch die Firma Bolt Beranek and Newman (BNN) in Kooperation mit Universitäten.

    BASIC: Beginner's All-purpose Symbolic Instruction Code; einfache Programmiersprache.

    Beta-Version: im Teststadium befindliche Software, die noch instabil sein kann.

    Binär-Code: maschinenausführbares Programm, für Menschen nicht »lesbar«.

    BIND: Berkeley Internet Name Daemon; Service, mit dem Namen des DNS in IP-Adressen (und vice versa) umgesetzt werden.

    BSD: Berkeley Software Distribution; UNIX-Paket der Universität von Berkeley. Zunächst kommerziell vertrieben, später Aufspaltung in mehrere freie Varianten (FreeBSD, NetBSD, OpenBSD) unter einer eigenen Lizenz, die die Reprivatisierung erlaubt.

    Bug: wörtlich »Wanze«; Fehler im Computer-Programm.

    C: Programmiersprache, die zusammen mit UNIX entwickelt wurde.

    Client: Rechner, der bereitgestellte Dienste eines Servers nutzt.

    Code fork: Aufspaltung des Programm-Codes in zwei verschiedene Entwicklungsrichtungen aufgrund der Spaltung des Projekts. Code fork passieren selten, ein Beispiel ist die zeitweise trennung der C-Compilerentwicklung in GCC und EGCS.

    Compiler: Übersetzer; ein Programm, das den Quell-Text eines Programms in Binär-Code überführt.

    Copyleft: Bezeichnung der Lizensierungsform der GNU GPL, die die klassischen Ziele des Copyright umkehrt, denn statt des Ausschlusses von Nutzern juristisch abzusichern wird das Ausschliessen rechtlich ausgeschlossen.

    Daemon: Hintergrundprozess, der auf einem Server läuft, und Dienste permanent zur Verfügung stellt.

    DNS: Domain Name System; Definition eines hierarchischen Namenssystems für Internet-Domänen.

    Domäne/Domain: Bereich im hierarchischen DNS.

    Editor: Programm zur Erfassung und Speicherung von Texten, z.B. von Programm-Code.

    EGCS: Experimental GCC Compiler Suite; Abspaltung von der GCC-Entwicklung.

    Emacs: Universal-Editor, der mit extrem vielen Zusatzfunktionen ausgestattet werden kann. Kommt ursprünglich aus der UNIX-Welt, ist inzwischen aber für die meisten Betriebssysteme verfügbar.

    E-Mail: Electronic Mail; elektronische Post im Internet.

    Emoticons: Ausdruck von Gefühlen mit Hilfe von Kürzeln und "Smileys" :-)

    Ethernet: Transport-Protokoll für LANs (Local Area Networks).

    FreeBSD: freies BSD-Unix.

    FSF: Free Software Foundation; 1985 von Richard Stallman u.a. gegründete Organisation zur Unterstützung der GNU-Projekte zur Entwicklung freier Software.

    FTP: File Transfer Protocol; ermöglicht das Kopieren von Dateien im Internet.

    GCC: GNU C-Compiler; bekanntester freier C-Compiler. Nach der »Wiedervereinigung« mit EGCS bedeutet GCC nun GNU Compiler Collection.

    GIMP: GNU Image Manipulation Program; universelles Bildverarbeitungsprogramm mit Plug-In-Konzept.

    GNOME: GNU's Network Object Model Environment; neben KDE die zweite freie, grafische Benutzeroberfläche für Unix-Systeme.

    GNU: Rekursive Bezeichnung für GNU Is Not Unix; Projekt der FSF zur Schaffung eines freien Betriebssystems. Die GNU-Tools sind Teil des freien Betriebssystems GNU/Linux.

    GNU GPL: GNU General Public License, kurz GPL; die bekannteste und weitestgehende freie Softwarelizenz. Die GPL erlaubt die Nutzung, Veränderung und Verbreitung der Software und verbietet den Ausschluß von der Nutzung z.B. durch Reprivatisierung von ihr abgeleiteter Software.

    Gopher: Protokoll für den Zugriff auf verteilte hierarchische Datei-Systeme im Internet, entwickelt an der Universität von Minnesota. Gopher wurde in der Bedeutung durch HTTP und das darauf basierende grafische WWW abgelöst.

    Hacking: bezeichnet eine spezifische Programmierkultur, die mit dem Aufkommen der Time-sharing Computer entstand und die sich durch offene und verteilte Kooperation der Hacker auszeichnet. Heute wird in der medialen Öffentlichkeit der Begriff des Hackens mit elektronischem Vandalismus identifiziert. Hacker selbst bezeichnen diese Form als "cracken": "hackers build things, crackers break them." Vgl. Raymond, E.S. (1999).

    Halloween, Feiertag in den USA; der Tag gab den Dokumenten der Fa. Microsoft, in denen sie Bedeutung freier Software untersucht, ihren Namen.

    Host: zentraler Computer, an dem über viele Terminals parallel gearbeitet werden kann. Hier: Computer, der über eine IP-Adresse identifizierbar ist.

    HTTP: Hypertext transfer Protocol; Protokoll zur Übertragung von Internet-Dokumenten (Web-Seiten).

    Hurd: Name des GNU-Kernels, der bisher nur als Beta-Version freigegeben wurde.

    IETF: Internet Engineering Task Force; informelle Organisation zur Festlegung von Internet-Standards. Wichtigste Dokumente sind die RFCs. IETF-Motto: »Rough consensus and running code«

    IMAP: Internet Message Access Protocol; Protokoll, das die Verwaltung von E-Mails auf einem Server erlaubt.

    Internet-Wurm: Ein sich selbst vervielfältigendes Programm, das sich im Internet ausbreitet kann und ggf. auf den befallenen Rechnern Schaden anrichtet. Ein aktuelles Beispiel ist der »I-LOVE-YOU«-Wurm.

    Interpreter: Programm, das ein in einer Skript-Programmiersprache geschriebenes Programm in Binär-Code übersetzt und unmittelbar ausführt.

    IP: Internet Protocol; bildet zusammen mit TCP das Basis-Protokoll der Internet-Kommunikation. Mit dem IP ist es möglich, verschiedene Netzarten zu integrieren.

    IP-Adresse: Eindeutige numerische Bezeichung eines Gerätes (Computers) im Internet aus derzeit 4 Bytes (Beispiel: 192.168.1.1).

    IRC: Internet Relay Chat; Internet Chat System, Online-Diskussionsforen.

    ITPO: Information Processing Techniques Office der ARPA; vormals Behavior Sciences Office, ab 1962 geleitet vom Psychologen J. C. R. Licklider, der seine im Manifest »Man-Computer-Symbiosis« formulierten Ziele zur Nutzung von Computern für die Zusammenarbeit der Forschenden umsetzte. Unterstützte zunehmend Universitätsprojekte, so auch die Time-sharing Mini-Computer-Projekte des MIT.

    Java: C-ähnliche Programmiersprache für Internet-Applikationen.

    JPython: auf Java basierendes Python.

    KDE: K Desktop Environment; freie, grafische Benutzungsoberfläche (Desktop-System) für Unix-Systeme.

    Kernel: Zentrale Komponente im modularen Unix-Betriebssystem, das den Speicher verwaltet, die Prozesse organisiert und elementare Operationen zur Verfügung stellt.

    LaTeX: siehe TeX.

    Linux: freier Unix-Kernel, benannt nach Linus Torvalds, der 1991 auf Basis eines Minix-System die Entwicklung begann.

    LGPL: GNU Lesser General Public License; enthält die gleichen Bestimmungen wie die GPL, beinhaltet jedoch die Erlaubnis, Programme und -Bibliotheken mit proprietärer Software zu nutzen.

    Mailingliste: E-Mail-Kommunikation einer Gruppe; E-Mails an die Liste werden automatisch an alle Mitglieder der Gruppe verteilt.

    MINIX: Mini-Unix; entwickelt von Andrew Tanenbaum zu Lehrzwecken, nach dem der Sourcecode des System-V-Unix von AT&T auch in Lehrveranstaltungen nicht mehr verwendet werden durfte. Minix wurde erst 2000 unter eine freie Lizenz gestellt (BSD).

    MIT: Massachusetts Institute of Technology (USA).

    Mozilla: Name des Netscape-Internet-Browsers.

    MPL: Mozilla Public Licence; Teile des im April 1998 freigegebenen Netscape Communicator (Mozilla) unterliegen dieser Lizenz. Im Gegensatz zur NPL enthält sie aber keine Sonderrechte für Netscape.

    MTA: Message Transport Agent; Programm, das für die transport von E-Mail im Internet sorgt.

    MUD: Multi-User-Dungeons; Rollenspiel im Netz.

    NCSA: National Center for Supercomputing Applications (USA).

    NetBSD: freies BSD-Unix mit dem Fokus auf »Portabilität«.

    NFS: Network File System; Netzwerk-Dateisystem.

    NNTP: Network News Transfer Protocol; Protokoll, speziell entwickelt für die Beschleunigung des Newsgroup-Datentransfers im Usenet.

    NPL: Netscape Public Licence; Teile des im April 1998 freigegebenen Netscape Communicator (Mozilla) unterliegen dieser Lizenz. Netscape sichert sich mit dieser Lizenz die Möglichkeit der Reprivatisierung.

    OpenBSD: freies BSD-Unix mit dem Fokus auf »Sicherheit«

    Open Source: Von der Open Source Initiative (OSI) eingeführter Marketingbegriff für Freie Software.

    OSI: Open Source Initiative; 1997 von Eric Raymond und Bruce Perens gegründet. Bruce Perens hat sich inzwischen von der OSI wegen zu starker kommerzieller Ausrichtung wieder getrennt.

    Patch: Computercode, mit dem ein Fehler in einem Programm beseitigt (»geflickt«) wird.

    PC: Personal Computer; der "eigene Computer auf dem Schreibtisch" - im Unterschied zum Time-sharing Computer der Frühzeit, an dem viele Menschen gleichzeitig über Terminals arbeiten. Heute kann der PC auch ein Time-sharing-Computer sein (z.B. mit Linux).

    PDP: Computerserie der Digital Equipment Corporation (DEC), Hersteller der ersten Time-sharing Mini-Computer (PDP-6).

    Perl: Practical Extraction and Report Language; universelle Skript-Programmiersprache.

    PGP: Pretty Good Privacy; Programm zur Verschlüsselung von Daten.

    PHP: Rekursive Abkürzung für PHP Hypertext Preprocessor; eine in HTML eingebettete Programmiersprache zur dynamischen Generierung von Web-Seiten mit zahlreichen Schnittstellen zu Datenbanken.

    Plug-In: »Einstöpseln« einer Software-Komponente, die einer vorhandenen Applikation neue Funktionen hinzufügt.

    POP3: Post Office Protocol; Protokoll, das die Auslieferung von E-Mails festlegt. Die E-Mails werden dabei auf den Client-Rechner transferiert.

    Portieren: Software auf ein technisch anderes Computer-System übertragen (entweder Anpassung von System-Software auf eine andere Hardware oder von Applikationen auf eine andere Betriebssystem-Software).

    Protokoll: Vereinbarung über Syntax und Semantik der elektronischen Kommunikation.

    Python: Programmiersprache, benannt nach Monty Python (engl. Komiker).

    Quell-Code, Quell-Text: Text eines in einer höheren Programmiersprache geschriebenen Programms.

    RFCs: Request for Comments; Dokumente zur Festschreibung offener Internet-Standards, die in der Regel bei treffen der IETF diskutiert und konsensuell festgelegt werden.

    Samba: Unix-Service, der Windows-NT-Dienste bereitstellt, so dass sich der Unix-Server für Windows-Clients wie ein Windows-NT verhält.

    Sendmail: bekanntester freier MTA.

    Server: Rechner, der Services bereitstellt, die von Clients genutzt werden.

    Skript-Programmiersprache: Programmiersprache, die von einem Interpreter ausgeführt wird.

    SMTP: Simple Mail transfer Protocol; Protokoll, das die Versendung von E-Mails definiert.

    Source-Code: Quell-Code, Quell-Text.

    Tcl/Tk: Tool Command Language/Tool Kit; freie Skript-Programmiersprache zur Anwendungsentwicklung.

    TCP: Transmission Control Protocol; bildet zusammen mit IP das Basis-Protokoll der Internet-Kommunikation.

    Telnet: Protokoll, das das Fernsteuern eines Rechners im Internet ermöglicht.

    TeX: Schriftsatz-System für Computer.

    UNIX: Multitasking und Multiuser-Betriebssystem. Der Name stammt indirekt vom Vorläufersystem MULTICS (Multiplexed Information and Computing Service) ab, von dem es sich durch »Einfachheit« unterscheiden sollte, daher UNICS (Uniplexed Information and Computing Service), woraus schließlich UNIX wurde.

    Usenet: Unix-User-Network; Netzwerk von Diskussionsforen, den Newsgroups. Ursprünglich auf Basis von UUCP betrieben, wurde es 1996 auf NNTP umgestellt.

    UUCP: Unix-to-Unix-Copy Protocol; regelt den Dateitransfer zwischen Unix-Computersystemen, wird für Internetdienste wie Mailing, Dateitransfer, Fernsteuerung und Diskussionsforen verwendet, jedoch mit stark abnehmender Bedeutung, da für die jeweiligen Dienste spezielle und effektivere Protokolle entwickelt wurden.

    WWW: World Wide Web; auf HTTP basierendes weltweites vernetztes Hypertext-System.

    5.3. Literatur

    Bradner, S. (1999), The Internet Engineering Task Force, in: DiBona, C., Ockman, S., Stone, M. (1999), S. 47.

    Brooks, F. P. (1995), The Mythical Man Month: Essays on Software Engineering, Reading/MA: Addison-Wesley.

    DiBona, C., Ockman, S., Stone, M. (1999), Open Sources: Voices from the Open Source Revolution, Sebastopol/CA: O'Reilly; Internet: http://www.oreilly.com/catalog/opensources/book/toc.html.

    Fischbach, R. (1999), Frei und/oder offen? From Pentagon Source to Open Source and beyond, in: FIFF-Kommunikation 3/99, S. 21-26.

    Glißmann, W. (1999), Die neue Selbständigkeit in der Arbeit und Mechanismen sozialer Ausgrenzung, in: Herkommer, S. (Hrsg., 1999), Soziale Ausgrenzungen. Gesichter des neuen Kapitalismus, Hamburg: VSA

    Kurz, R. (1999), Schwarzbuch Kapitalismus: Ein Abgesang auf die Marktwirtschaft, Frankfurt/Main: Eichborn.

    Marcuse, H. (1967), Der eindimensionale Mensch. Studien zur Ideologie der fortgeschrittenen Industriegesellschaft, Neuwied: Luchterhand.

    Marx, K. (1976/1890), Das Kapital. Kritik der politischen Ökonomie. Erster Band, Frankfurt/Main: Verlag Marxistische Blätter. Identisch mit Marx-Engels-Werke, Band 23, nach der von Friedrich Engels 1890 in Hamburg herausgegebenen vierten Auflage.

    Meretz, S. (1996), Informatik – Arbeit – Subjektivität. Die Wirklichkeit der Virtualität. http://www.kritische-informatik.de/infarb.htm.

    Meretz, S. (1999a), Die doppelte algorithmische Revolution des Kapitalismus – oder: Von der Anarchie des Marktes zur selbstgeplanten Wirtschaft. Internet: http://www.kritische-informatik.de/algorev.htm.

    Meretz, S. (1999b), Linux – Software-Guerilla oder mehr? Die Linux-Story als Beispiel für eine gesellschaftliche Alternative. In: FIFF-Kommunikation 3/99, S. 12-21. Internet: http://www.kritische-informatik.de/linuxsw.htm.

    Meretz, S. (1999c), Produktivkraftentwicklung und Subjektivität. Vom eindimensionalen Menschen und unbeschränkt entfalteten Individualität, http://www.kritische-informatik.de/pksubj.htm.

    Meretz, S. (2000), »GNU/Linux ist nichts wert – und das ist gut so!«, http://www.kritische-informatik.de/lxwert.htm.

    Meretz, S., Rudolph, I. (1994), Die »Krise« der Informatik als Ausdruck der »Krise« der Produktivkraftentwicklung, http://www.kritische-informatik.de/pk_inf.htm.

    Meretz, S., Schlemm, A. (2000), Subjektivität, Selbstentfaltung und Selbstorganisation, http://www.kritische-informatik.de/selbst.htm.

    Merten, S. (2000), Gnu/Linux - Meilenstein auf dem Weg in die GPL-Gesellschaft, http://www.oekonux.de/texte/meilenstein.

    Newman, N. (1999), The Origins and Future of Open Source Software, http://www.netaction.org/opensrc/future/oss-whole.html.

    O'Reilly & Associates Inc. (1999), Open Source, kurz und gut, Köln: O'Reilly.

    Perkins, G. (1998), Open Source and Capitalism, http://slashdot.org/articles/980824/0854256.shtml.

    Raymond, E. S. (1997), The Cathedral and the Bazaar, http://www.tuxedo.org/~esr/writings/cathedral-bazaar/, deutsche Übersetzung: Die Kathedrale und der Basar, http://www.linux-magazin.de/ausgabe/1997/08/Basar/basar.html.

    Raymond, E. S. (1998), Homesteading the Nooshpere, http://www.tuxedo.org/~esr/writings/homesteading/, deutsche Übersetzung: http://www.phone-soft.com/raymondhomesteading/htn_g.0.html.

    Raymond, E.S. (1999a), How To Become A Hacker, http://www.tuxedo.org/~esr/faqs/hacker-howto.html.

    Raymond, E. S. (1999b), The Magic Cauldron, http://www.tuxedo.org/~esr/writings/magic-cauldron/, deutsche Übersetzung: Der verzauberte Kessel, http://www.phone-soft.com/raymondcauldron/cauldron.g.01.html.

    Schlemm, A. (1996), Dass nichts bleibt, wie es ist...: Philosophie der selbstorganisierten Entwicklung, Band I: Kosmos und Leben, Münster: LIT.

    Stallman, R.M. (1984), The GNU Manifesto, http://www.gnu.org/gnu/manifesto.html, deutsche Übersetzung: Das GNU-Manifest, http://www.gnu.de/mani-ger.html.

    Stallman, R.M. (1994), Why Software Should Not Have Owners, http://www.gnu.org/philosophy/why-free.html.

    Stallman, R.M. (1996), Selling Free Software, http://www.gnu.org/philosophy/selling.html.

    Stallman, R. (1999), »Software muß frei sein!« Interview des Online-Magazins Telepolis, http://www.heise.de/tp/deutsch/inhalt/te/2860/1.html.

    Zakon, R.H. (2000), Hobbes' Internet Timeline v5.0, http://www.zakon.org/robert/internet/timeline/.

    5.4. Anmerkungen

    [1] GNU ist ein rekursives Akronym und heißt GNU Is Not UNIX. Es drückt aus, daß das freie GNU-System funktional den proprietären Unix-Betriebssystemen entspricht, jedoch nicht wie diese proprietär, sondern frei ist. Zum Begriff »proprietär« siehe Anmerkung 3.

    [2] Ein Programm, das im von Computer ausführbaren binären Format vorliegt, kann nicht geändert werden. Dazu ist der Quelltext (»source code«) des Programmes erforderlich.

    [3] Proprietär heißt herstellerabhängig. Oft wird der Begriff zur Unterscheidung verwendet, ob Software einem »offenen Standard« entspricht oder nicht. Hier wird der Begriff eng verstanden: Jede Software, deren Quelltext der Hersteller nicht offen legt, ist von diesem abhängig. Folglich ist jede nicht-freie Software proprietär.

    [4] Heute wird vielfach der Begriff des »hackens« mit dem elektronischen Einbruch in geschützte Computersysteme verbunden. Diese Fremd-Zuschreibung hat die eigentliche Bedeutung des Herstellens von innovativer Hard- und Software zersetzt. »Hacker« selbst bezeichnen diese Form des elektronischen Vandalismus als »cracken«: »hackers build things, crackers break them.« Vgl. Raymond, E.S. (1999).

    [5] Als »Distribution« bezeichnet man die Zusammenstellung aller notwendigen Komponenten zu einem lauffähigen Betriebssystem.

    [6] Um freie Software-Bibliotheken auch in nicht-freier Software benutzen zu können, wurde die GNU Library GPL geschaffen, die diese Vermischung erlaubt (z.B. die GNU C-Library). Mit Version 2.1 wurde sie umbenannt in GNU Lesser GPL, vgl. http://www.gnu.org/copyleft/lesser.html.

    [7] Linus Torvalds in einem Interview mit der Tokyo Linux Users Group: »Linux unter die GPL zu nehmen, war das beste, was ich je getan habe.« (O'Reilly & Associates Inc. 1999, 35).

    [8] Ich verzichte auf eine differenzierte Darstellung der Einzelaspekte einer »korrekten« Wertformanalyse.

    [9] Jegliche Produktherstellung umfaßt einen algorithmisch-konstruktiven und einen operativ-materialisierenden Aspekt. Bei Software geht der Anteil des zweiten Aspekts gegen Null. Mehr zum Thema Algorithmus in Meretz (1999a).

    [10] Bill Gates hat QDOS für 50.000 Dollar gekauft unter dem Namen MS-DOS vermarktet, wodurch der Aufstieg von Microsoft begann.

    [11] Nach dem 'Chaos Report' der Standish-Group (http://www.standishgroup.com/chaos.html) werden nur ein Viertel aller Projekte erfolgreich abgeschlossen. Der Rest scheitert komplett oder wird mit Zeit- und Budgetüberziehungen von 200% zu Ende gebracht.

    [12] Es ist schon lustig, wenn »Freiheit« als ehemaliger Kampfbegriff des Kapitalismus gegen den »unfreien« Sozialismus nun zur Bedrohung im eigenen Hause wird. Anscheinend handelte es sich hierbei auch um zwei »verkrachte Geschwister« – mit letalem Ausgang für den einen.

    [13] Eine Diskussion der von ESR verwendeten ökonomischen Kategorien sowie seiner Spekulationen über die Motivation der Hacker (»Geschenkökonomie«) kann ich hier nicht vornehmen. Insbesondere die von ESR dargelegten ökonomischen Kategorien sind haarsträubend. So vertauscht er Gebrauchswert und (Tausch-)Wert sowie Wert und Preis nach Belieben. Das tut der Eloquenz seines Plädoyers für die Re-Integration Freier Software in die kybernetische Wert-Verwertungsmaschine keinen Abbruch. Zum Thema »Geschenkökonomie« vgl. Fischbach 1999.

    [14] Die Firma Netscape hat den Internet-Browser (Mozilla) »frei« gegeben, und die Freie Software-Community zur »Mitarbeit« eingeladen. Wichtige Entwickler sind inzwischen resigniert abgesprungen (vgl. Jamie Zawinski, resignation and postmortem, http://www.jwz.org/gruntle/nomo.html).

    [15] Debian Social Contract: http://www.debian.org/social_contract.

    [16] Natürlich wären auch Lockangebote auf Basis der GPL denkbar, doch die Öffentlichkeit würde solche Tricks schnell durchschauen, was dem Image des »Lockers« schaden würde. Da ist die Netscape-Lizenz NPL »ehrlicher«, die besagt, daß man den öffentlichen Code jederzeit wieder privatisieren könne.

    [17] Vgl. die Besprechungen in der ZEIT http://www.archiv.zeit.de/daten/pages/199951.p-kurz_.html (Pro) bzw. http://www.archiv.zeit.de/daten/pages/199951.p-kurz-contra_.html (Contra) oder beim Online-Magazin Telepolis: http://www.heise.de/tp/deutsch/inhalt/co/5659/1.html.

    [18] »Die Produktivkraft der Arbeit ist durch mannigfache Umstände bestimmt, unter anderem durch den Durchschnittsgrad des Geschickes der Arbeiter, die Entwicklungsstufe der Wissenschaft und ihrer technologischen Anwendbarkeit, die gesellschaftliche Kombination des Produktionsprozesses, den Umfang und die Wirkungsfähigkeit der Produktionsmittel, und durch Naturverhältnisse.« (Marx 1976/1890, 54).

    [19] Ein Algorithmus ist die ideelle Vorwegnahme und Abbildung eines Prozesses. Fixiert man die Idee über den Prozeßablauf gegenständlich, so entsteht eine Algorithmusmaschine - unabhängig davon, ob diese mechanischer, elektronischer oder bloß textueller Natur (»Kochbuch«) ist.

    [20] Vielen Dank an Annette Schlemm, die mir hier auf die Sprünge geholfen hat (vgl. http://www.thur.de/philo).

    [21] »Der objektive Inhalt jener Zirkulation - die Verwertung des Werts - ist sein subjektiver Zweck, und nur soweit wachsende Aneignung des abstrakten Reichtums das allein treibende Motiv seiner Operationen, funktioniert er als Kapitalist oder personifiziertes, mit Willen und Bewußtsein begabtes Kapital.« (Marx 1976/1890, 167f)

    [22] Der Begriff der Vergesellschaftung faßt die Art des Vermittungszusammenhangs von Individuen, Gruppen und Gesellschaft bei der Produktion und Reproduktion ihres Lebens.

    [23] Das sind im Grunde die Erfahrungen, die auch in hierarchischen Softwareprojekten gemacht werden: Mit Zunahme der Anzahl der beteiligten Personen steigt der Kommunikationsaufwand quadratisch (siehe Brooksches Gesetz, Kapitel 1.3.)

    [24] Wer das schlicht »nicht glaubt«, dem empfehle ich direkt den Erfahrungsbericht der Betriebsräte von IBM-Düsseldorf als Lektüre (Glißmann 1999).