Stefan Meretz, Düsseldorf, Vortrag gehalten am 24.4.96 in Berlin

Informatik - Arbeit - Subjektivität.
Die Wirklichkeit der Virtualität.

Zusammenfassung    Download (ZIP) Download (PDF)

Die »Informationsgesellschaft« scheint erreicht zu sein oder zumindest unmittelbar bevorzustehen. Unabhängig vom tatsächlichen Grad computer- und kommunikationstechnischer Durchdringung der Gesellschaft, legt die Hype um das Internet diesen Schluß nahe - zumindest aus der Sicht von Spiegel, Stern und Focus. Mir geht es darum, diese Art »virtueller Informationsgesellschaft« auf ihren tatsächlichen Gehalt hin zu hinterfragen. Den roten Faden meines Beitrags bildet die Arbeit, also diesmal nicht die schillernden Facetten der neuen Techologien wie das angenommene Verschwinden des Raumes oder die Wirklichlichkeit als Simulation. Von diesem roten Faden werde ich immer wieder abweichen und Einzelaspekte ausleuchten, um dann den roten Faden weiterzuspinnen.

Beginnen möchte ich mit der Frage nach der Historie des Begriffes der »Informationsgesellschaft« und Definitionen, die mit dem Begriff heute verbunden sind. Ich will beschreiben, wie sich die gesellschaftliche Arbeit als Ergebnis der Entwicklungen hin zu einer »Informationsgesellschaft« bereits verändert hat und welche Tendenzen absehbar sind. Dabei spielt die Informatik unbestreitbar eine wichtige Rolle, welche, das gilt es zu untersuchen. Hierbei will ich auf die Frage eingehen, ob »sich die Wissensproduktion vom Menschen und seinen Bedürfnissen entfernt hat und ... zu einer Art Selbstlauf geworden ist« - wie es in der Einleitung zu der Vortragsreihe der Evangelischen Studentengemeinde (ESG) heißt. Wenn die Informatik es mit der Arbeit zu tun hat, so hat sie es als Rationalisierungstechnologie auch mit Subjekten zu tun. Ich will sehen, inwieweit dies der Fall ist und ob und wie dies von der Informatik theoretisch reflektiert wird oder werden kann. Dies alles mündet in die Hypothese, daß sich die Krise der Informatik, über die nicht mehr groß geredet, sondern die nurmehr sozusagen ausgelebt wird, als eine Krise der Produktivkraftentwicklung zeigt - eine Art post-postmoderne These.

Geschichte der Diskussion der »Informationsgesellschaft«

Schon früh wurde in Japan über die Frage diskutiert, wie sich Japan als rohstoffarmes Land langfristig entwickeln könne. 1963 sah Tadao Umesao am Ende seiner Stufentheorie der gesellschaftlichen Entwicklung die »Informationsgesellschaft«, genannt joho shakai. Das Japan Computer Usage Development Institute veröffentlichte 1971 den Bericht »Plan für eine Informationsgesellschaft: ein nationales Ziel bis zum Jahr 2000« in dem die Abkehr von der Güterproduktion angenommen und die Errichtung einer »Informationsgesellschaft« als Ziel formuliert wird. Interessant ist, daß sich nahezu unbeeinflußt von der Debatte in Japan eine Diskusssion in Europa und den USA entwickelte, in der es eher um den Begriff der Dienstleistungsgesellschaft ging. Diese Diskussion ist auch vor dem Hintergrund der starken Studierendenbewegung zu sehen, die Alternativen zum Kapitalismus wollte und die Postindustrielle Gesellschaft als Alternative zu marxistischen Ansätzen zu hören bekam - so bei Touraine 1969 in Frankreich und Bell 1973 in den USA. Vor allem Bells Vorstellungen wurden zur Grundlage der Konzepte, die heute unter der Überschrift »Informationsgesellschaft« firmieren. Bis dahin sollte jedoch noch einige Zeit vergehen. In den Achtzigern intensivierte sich die Diskussion, vor allem befördert durch die Popularisierung über »Bestseller« wie etwa 1980 durch Tofflers »Dritte Welle« oder 1982 den unvermeidlichen Naisbitt mit seinen »Megatrends«. Charakteristisch war hier die Verbindung von Technikeuphorie mit konservativer Politik. Die Meinungsführerschaft hatte von nun an die politische Rechte inne.

Gemeinsam ist diesen Diskussionen, daß sie in einer Zeit stattfanden, in der die Welt im unmittelbaren Sinne des Wortes in Ordnung war - in einer relativ stabilen Ordnung der Aufteilung zwischen realem Kapitalismus und realem Sozialismus, zwischen realem Reichtum im Norden und realer Armut im Süden, und der realen Aufteilung der Märkte zwischen den industriellen Zentren. Mit der großen Wende Ende der Achtziger änderte sich das fundamental. Die sozialistischen Länder fielen als sozialpolitisch und rüstungstechnisch mobilisierender Faktor weg, die fordistische Produktionsweise der massenhaften Herstellung uniformer Güter stieß an die Grenzen gesättigter Märkte, und zahlreiche Probleme erhielten nun das Attribut »global«. Diese Entwickung spiegelt sich auch in den Diskussionen um die »Informationsgesellschaft« wider. Der Informatisierung der Gesellschaft wurde die Schlüsselrolle für die Konkurrenz- und damit Zukunftsfähigkeit der jeweils eigenen Gesellschaft zugeschrieben. Zur Begründung mußte jeweils die Überlegenheit der Konkurrenz herhalten - die globale Standortdebatte war geboren.

In den USA bildete sich 1989 das Computer Systems Policy Project (CSPP), ein Konsortium von 13 Unternehmen der US-Computerindustrie. Nach dem Ende des Kalten Krieges wurde ein neuer Investitionsfokus gesucht, der außerhalb der Rüstungsindustrie liegt. 1990 legte die US-Regierung in Zusammenarbeit mit dem CSPP das High Performance Computing and Communication Program (HPCC) vor. Begründet wurde der Vorstoß unter anderem mit dem Vorsprung von Europa und Japan auf diesem Gebiet. Das CSPP erweiterte das HPCC erheblich und legte im Januar 1993 das Programm zum Aufbau einer nationalen Infrastruktur (NII) vor. Dies griff der Vizepräsident Al Gore auf und popularisierte es unter dem Begriff des »Information Superhighway«. Nun war die EU am Zug und legte ihrerseits mit einer entsprechenden Begründung des Vorsprungs der USA einen Abklatsch des NII vor, das als »Bangemann-Report« bekannt wurde. Der G7-Gipfel im Februar 1995 machte aus der nationalen schließlich eine globale Informations-Infrastruktur (GII), was nicht bedeutet, daß nun der Konkurrenzkampf nun nicht mehr stattfindet: »Die Welt steht zur Vernetzung an, und Europa sieht sich wieder in einer Aufholjagd.«

Ideologie der »Informationsgesellschaft«

Zwei Zitate sollen illustrieren, was unter einer »Informationsgesellschaft« verstanden und was mit ihr an Erwartungen verbunden wird. Helmut Kohl erklärt uns die »Informationsgesellschaft«. Sie sei »eine Wirtschafts- und Gesellschaftsform, in der die Gewinnung, Speicherung, Verarbeitung, Vermittlung, Verbreitung und Nutzung von Informationen und Wissen einschließlich wachsender technischer Möglichkeiten der interaktiven Kommunikation eine entscheidende Rolle spielen.« Nach diese technikzentrierten Definition befinden wir uns jetzt also im Übergang von der Autogesellschaft in die »Informationsgesellschaft«, oder hatten wir vorher eine Fernsehgesellschaft? Die Erklärung von Sozialität durch Technik wird im Bangemann-Report gleichsam zum Hoffnungsersatz, nach dem »Ende der Geschichte« möge doch noch etwas sinnvolles folgen: »Die Informationsinfrastruktur kann sich als ein hervorragendes Instrument im Dienste der Bevölkerung Europas und zur Verbesserung unserer Gesellschaft erweisen, indem sie die ursprünglichen und häufig einzigartigen Werte, die unserem Leben zugrunde liegen und ihm Sinn verleihen, in vollem Umfang widerspiegelt.« Religionsersatz Internet. Wahrscheinlich ist das Internet Schuld an den vermehrten Kirchenaustritten!

Das alles mutet anekdotisch an, hat aber seinen realen Kern und ideologischen Bezüge. Zur propagierten Ideologie der »Informationsgesellschaft« gehören folgende Aspekte:

  • Die Anzahl der Informations- und WissensarbeiterInnen wird so stark zunehmen, daß sie schließlich die Mehrheit der Arbeitskräfte stellen und die Schlüsselrolle bei der Wertschöpfung spielen.
  • Die allgemeine Verfügbarkeit von Informationen führt zu einer Dezentralisierung von Entscheidungen und zur Stärkung von Partizipation und Demokratie. Die »Informationsgesellschaft« ist also auch eine informierte Gesellschaft.
  • Die Globalisierung von Information und Kommunikation bietet eine Chance zum Einstieg in die neuen Technologen für alle Länder und kann damit einen Beitrag zur Verringerung des Nord-Süd-Gefälles leisten.
  • Schließlich wird durch den globalen Austausch eine neue »Informationskultur« entstehen als Synthese aus verschiedenen Kulturen in Form örtlich ungebundener neuer »communities«.

Auf Einzelaspekte der drei letzten Punkte möchte ich später eingehen und hier nur kurz feststellen: Diese Verkündigungen dienen vor allem dazu, der sehr skeptischen Haltung der Bevölkerung entgegenzutreten. Interessanter, weil nicht so leicht bewertbar, ist der erste Punkt. Hier lohnt es sich genauer hinzusehen. Die Annahme der Entstehung oder des bereits Bestehens einer »Informationsgesellschaft« ist eng verbunden mit der Vorstellung der starken Ausdehnung des tertiären Sektors, des sog. Dienstleistungsbereiches. Die »Informationsgesellschaft« sei im wesentlichen eine Dienstleistungsgesellschaft, in der InformationsarbeiterInnen eine bedeutende Rolle spielen - so die Vorstellung. Ist es aber so?

Segmentierung und Polarisierung in der »Informationsgesellschaft«

Richtig ist, daß man eine absolute und relative Ausdehnung des Dienstleistungsbereiches beobachten kann. Das dokumentieren die offiziellen Statistiken. In den USA ist dieser Prozeß schon weiter fortgeschritten als in Europa oder in Deutschland. Gleichzeitig gehen aber die Dienstleistungen im engeren Sinne, die personalen Dienstleistungen, zurück. Sie werden als unbezahlte Arbeit in die Privatsphäre verlagert. Das ist keine neue Erscheinung, historisch gehören dazu etwa die Hausarbeit, der Individualverkehr, Radio und Fernsehen. In neuerer Zeit kommen die elektronisch vermittelten Formen des Bankverkehrs und Einkaufens (Telebanking, -shopping) und der Freizeitgestaltung hinzu.

Stark zugenommen haben alle produktionsnahen Dienstleistungen. Dies liegt an der zunehmenden Trennung von unmittelbar güterproduzierenden und nur mittelbar produktionsbezogenen Bereichen begleitet von einem verstärkten Einsatz von EDV. Die Trennlinien zwischen sekundärem und tertiärem Sektor sind jedoch unscharf. Weitere Quellen der Ausdehnung der produktionsnahen Dienstleistungen sind die andauernde Rationalisierung in der Güterproduktion und mit zunehmender Intensität die Rationalisierung im Bereich von Planung, Entscheidung und Verwaltung - die sog. »Lean«-Strategien. Zusammenfassend kann man also sagen, daß die Zunahme der produktionsbezogenen Dienstleistungen und hierin die Zunahme des Informationstechniksektors Ausdruck der intensivierten gesellschaftlichen Arbeitsteilung sind.

Was bedeutet das für die Entwicklung der gesellschaftlichen Arbeit? Zunächst offensichtlich ist der Abbau von Arbeitsplätzen, gerade auch und in neuer Größenordnung im Dienstleistungsbereich. Im öffentlichen Dienst, Handel und Verkehr sinkt die Zahl der Beschäftigten seit Jahren, und in den bisherigen Wachstumsbereichen Banken und Versicherungen steht ein erheblicher Arbeitsplatzabbau bevor. Dieser kann nicht annähernd kompensiert werden durch Zuwächse im Bereich der neuen Kommunikationstechnologien. Insgesamt bedeutet die Informatisierung und der dadurch bewirkte Produktivitätszuwachs bei Stagnation der gesamtwirtschaftlichen Entwicklung drastische Arbeitsplatzverluste. Daran werden »Bündnisse für Arbeit« und sonstige Verzichtsprogramme nichts bedeutend ändern.

Ein weiterer Effekt der Informatisierung der gesellschaftlichen Arbeit ist ihre zunehmende Segmentierung und Polarisierung. So entstehen auf der einen Seite Bereiche von High-Tech-Arbeit hoher Qualität und Kreativität und mit relativ großen individuellen Gestaltungsspielräumen. Sie sind aber auch von hoher Intensität und Überarbeitung gekennzeichnet. Möglichkeiten und Risiken liegen hier dicht beieinander. Auf der anderen Seite entstehen Bereiche von Low-Tech-Arbeit, bei denen die Risiken die Möglichkeiten deutlich überwiegen. Sie sind gekennzeichnet durch Zeitoptimierung und dadurch hohe Arbeitsgeschwindigkeit und hohe Belastung. Sie wird begleitet von neuen Formen des indirekten Zwangs und Drucks vermittelt durch Teams und die Struktur der Gruppenarbeit. Von individuellen Gestaltungsmöglichkeiten nahezu völlig ausgeschlossen ist das Segment der »Just-In-Time-Arbeit« in vielfältigen Formen, angefangen von Teilzeitarbeit und Scheinselbständigkeit bis hin zu unterwertiger und geringfügiger Beschäftigung und prekären Arbeitsverhältnissen. Der gesamte Prozeß der Segmentierung und Polarisierung geht deutlich zu Lasten von Frauen, das läßt sich heute schon nicht mehr nur in den neuen Bundesländern beobachten.

Segmentierung und Polarisierung der Arbeit führen fast zwangsläufig auch zu sozialer Polarisierung. Als Beispiel möchte ich die Situation in den USA anführen, wo der uns noch bevorstehende Prozeß weit fortgeschritten ist. Gerade erst Anfang dieses Monats wurde auf dem G7-Beschäftigungsgipfel in Lille auf die »Erfolge« bei Schaffung neuer Arbeitsplätze in den USA hingewiesen. Wie schlagen sich diese »Erfolge« in der Sozialstruktur nieder? An der Spitze steht die kleine, extrem reiche ökonomische Elite (0,5% der Bevölkerung), die durch ihre ökonomische Macht über die Chancen des Restes der Bevölkerung bestimmt. 4% der Bevölkerung werden zur sog. »Informations- und Wissenselite« gerechnet. Sie verfügen über eine sehr gute Ausbildung und steuern die High-Tech-Wirtschaft. Diese Gruppe wird ergänzt durch 16% der Beschäftigten, die ich als »Intellektuelle ArbeiterInnen« bezeichne und die aufgrund ihrer Qualifikation sehr viel Geld verdienen. Diese beiden Gruppen zusammen haben ein absolut höheres Einkommen als der Rest der arbeitenden Bevölkerung - von den aus der Erwerbsarbeit Ausgeschlossenen ganz zu schweigen. Sie sind die Katalysatoren und GewinnerInnen der »Informationsgesellschaft USA«.

Ich habe inzwischen einige Illusionen über die Chancen des Post-Fordistischen Zeitalters verloren. Ein Überblick über den gesamten Prozeß scheint mir notwendig, ohne dabei Möglichkeiten im Einzeln plattzubügeln. Auf der deskriptiven Ebene findet man jedoch nicht heraus, was denn nun das wirklich Neue der Entwicklung ist, in der wir uns heute bewegen. Dabei ist es zunächst unerheblich, welche Bezeichnung man für diese neue Entwicklung wählt. Im folgenden will ich ein mehr analytisches Herangehen wählen, was ich immer wieder durch Beschreibungen der Praxis ergänze. Im Zentrum meiner Betrachtung steht die Rolle der Informationstechnik, denn daß sie innerhalb der laufenden gesellschaftlichen Entwicklung eine wichtige Rolle spielt, scheint mir unstreitig.

Das Neue an den neuen Technologien

Die neue Qualität der Informationstechnik besitzt m.E. drei Dimensionen. Zunächst - und das wird auch weiter mein Schwerpunkt bleiben - geht es um Produktion und Arbeit. Analytisch davon zu trennen ist die Kommunikation, die sich gewissermaßen aus dem Bereich der Produktion heraus verselbständigt hat. Weiterhin sind auch für den Bereich der Konsumtion neue Analysebegriffe erforderlich, schon auch deshalb, weil digitale nichtmaterielle Produkte direkt konsumiert werden und sich darüber zunehmend mehr unser gesellschaftliches Leben strukturiert. Alle drei Dimensionen sind dabei zu denken unter den Bedingungen einer globalen Vernetzung.

Was ist das Neue am Neuen? Zunächst sticht die Universalität des digitalen Codes ins Auge. Universalität des digitalen Codes bedeutet, daß etwas Nichtmaterielles die formale Grundlage jeglicher Information, also jeglicher symbolischer Bedeutung werden kann. Das ist, wenn man so will, eine der genialsten Erfindung des Kollektivs Menschheit. Diese Erfindung hat nichts damit zu tun, wie manchmal moralisierend kritisiert wird, das alles in seiner Digitalität nurmehr auf 0-1 reduziert und damit nur noch schwarz-weiß gedacht werden kann. Das simplifizierend deutende Denken, das es natürlich weithin gibt, hat andere Ursachen, auf die ich hier nicht eingehen will. Auch das Bild des Übergangs von der »Gutenberg-Galaxis« zur »Turing-Galaxis« trifft das Besondere der Erfindung nur teilweise. Alan Turing war Mathematiker und hat die Universalität der Digitalität in seiner Tragweite als erster erkannt. Er konstruierte auf dem Papier einen auf digitaler Basis arbeitenden »Universalautomaten« und konnte zeigen, daß mit Hilfe einer entsprechenden Folge von Schritten - heute würden wir Programm sagen - aus dem Universal- ein Spezialautomat wird, mit dem ein endliches mathematisches oder logisches Problem berechnet werden kann. Damit waren die entscheidenden begrifflichen Grundlagen heutiger Computer formuliert. Weil mit einem Programm aus der Universalmaschine Computer eine jegliche Spezialmaschine entstehen kann, ist das Bild der »Gutenberg-Galaxis«, die nun in eine »Turing-Galaxis« übergeht, zu eng. Es geht - wie der Begriff Gutenberg nahelegt - gerade nicht nur um Texte als eine Form fixierter symbolischer Bedeutungen, sondern um alle Prozesse und Gegenstände, die für uns bedeutsam sind. Allgemeiner: Die digitale Form eignet sich als Träger jeglicher Gegenstands- und Symbolbedeutungen. Zwei Beispiele mögen das illustrieren.

Im Museum für Verkehr und Technik in Berlin ist eine handbetriebene Maschine zur Umwicklung von Knöpfen mit einem Faden ausgestellt. Bei dieser Maschine sind die kombinierten und aufeinander abgestimmten Bewegungen der Knopfumwicklung als Transmissionsriemenmechanismus umgesetzt worden. Die Vergegenständlichung der zweckgebundenen Bewegung der Einzelteile als Riemenmechanismus könnte man vollständig in eine digitale Steuerung überführen. Dazu werden Energielieferung und Bewegungslogik voneinander getrennt. Die zeitliche und räumliche Kombinatorik der Bewegungen wird dann in einem digital codierten Algorithmus niedergelegt. Der Algorithmus steuert separate Bewegungsantriebe, die im Gesamt zur Umwicklung des Knopfes führen. Auf diese Weise wird der bedeutungsbehaftete, zweckgebundene Teil des Prozesses in eine digitale Form übertragen. Zweites Beispiel: Ich kann einen auf einem Magnetband befindlichen Videofilm in eine digitale Form auf meinen PC übertragen, ohne daß ich einen Qualitätsverlust beim Abspielen des digitalisieren Films wahrnehmen kann. Die Bedeutungshaftigkeit des Films und des in ihm Dargestellten ist dadurch in keiner Weise berührt worden.

Die Universalität des digitalen Codes gilt jedoch nur in einer Richtung. Umgekehrt kann ich nämlich aus der Form die Information, also die Bedeutung des Niedergelegten, nicht extrahieren. Die Bedeutungshaftigkeit des Codes ist mir nur zugänglich, wenn ich sozusagen das »verarbeitende« Gegenstück des Codes habe. Eine Turing'sche Schrittfolge ist ohne Turingmaschine bedeutungslos, ein Steuerprogramm ohne Steuerung, ein digitaler Videofilm ohne Abspielcomputer. Worauf es mir dabei ankommt, verdeutlicht die Turingmaschine. Die Universalmaschine war bei Turing ein bloßes Gedankenkonstrukt. Das heißt, die Turingmaschine muß nicht wirklich gebaut werden, damit ich die Bedeutung einer Turingschrittfolge erkennen kann, sondern ich muß um ihre Funktionsweise wissen. Ich muß wissen, welche Wirkung die digitale Codesequenz hat, ob sie einen Schritt der Turingmaschine auslöst, einen Elektromotor einschaltet oder einen Bildschirmpunkt einfärbt. Wenn ich digitalen Code und die Codeverarbeitung kenne, dann kann ich mir zwar die Bedeutung des Codes klarmachen - jedoch nur in Bezug auf die begrenzte Welt, in der die Konvention von Code und Codeverarbeitung gelten (Konventionsraum). Ich weiß zwar möglicherweise, daß der Motor startet, aber was bedeutet nun das Starten des Motors wiederum? Das kann ich nur verstehen, wenn ich weiß wozu dieser Motor genau an dieser Stelle verwendet wird, wenn ich also um die Bedeutung des Motors weiß. Usw. Wie in Schalenform aufgebaut, schließt sich so ein Konventionsraum um den nächsten. Am Ende, oder »außen«, wenn man so will, befindet sich die bedeutungsvolle Lebenswelt des Menschen. Wir haben all die Konventionsräume geschaffen, und wir haben die bedeutungsvolle Lebenswelt hergestellt, um unsere Bedürfnisse zu befriedigen. Durch die Zwecksetzung setzen wir auch die Bedeutung, wir stellen die Bedeutung her. Bedeutungen sind demnach nichts absolutes oder anhand ihrer Form definierbares. Aus diesem Grund ist eine Bedeutungsbestimmung anhand der Form, z.B. des digitalen Codes, in Bezug auf die Lebenswelt unmöglich - oder eben nur durch uns Menschen möglich. Die von und für uns hergestellten Bedeutungen können auch nur wir als bedeutungsvoll erfahren. Eine maschinelle Decodierung von lebensweltlichen Bedeutungen ist ausgeschlossen. Vielleicht kommen wir in der Diskussion noch mal auf das Thema zurück, denn es ist ziemlich verzwickt und in der Informatik komplett unbegriffen.

Mit den nächsten beiden Punkten wird die Kommunikation und Konsumtion im globalen Netzwerk angesprochen. Unter Konvergenz, dem nächsten Aspekt des Neuen, versteht man die Verschmelzung von elektronisch vermittelter Massenkommunikation, wie wir sie als Radio und TV kennen, und Individualkommunikation, womit vor allem die Kommunikation per Telefon gemeint ist. Diese Konvergenz hat zur Folge, daß das klassische Sender-Empfänger-Modell als Kategorie überholt ist. Dies hat vor allem zwei Gründe: Zum Einen können die Begriffe »Sender« oder »Empfänger« den an der Kommunikation Beteiligten nicht mehr als Gruppeneigenschaft zugeordnet werden - wie etwa vorher beim klassischen Rundfunk. Zum Zweiten ist es nicht mehr möglich, das Sender-Empfänger-Verhältnis als definierte Beziehung festzulegen. Das heißt, der Sender bestimmt nicht mehr, in welcher Weise das Gesandte rezipiert wird: Ein Musikstück kann als grafisches Sample rezipiert werden und eine World-Wide-Web-Seite als Programmcode. Damit geht auch die Kontrolle der Produzenten von Kommunikationsinhalten über das Konsumtionsverhalten der Rezipienten verloren - ein Aspekt, der weder Medienwirtschaft noch Politik gefällt.

Aus der Universalität des digitalen Codes folgt auch, daß sich die Formen technisch vermittelter Kommunikation nicht durch die Art und Weise der Technik oder ihre Gegenständlichkeit unterscheiden lassen. Dadurch wird auch der Begriff »Medium« hinfällig. Zeitung, Radio, Maschinensteuerung sind in digitaler Form im globalen Netz anhand ihrer technischen Form ununterscheidbar. Erst der Rezipient entscheidet, um welche Form es sich handeln soll. Das bedeutet aber auch, daß durch den Verlust der Kontrolle des Distributionskanals auch die Inhalte nicht mehr kontrollierbar sind. Jede KonsumentIn wird zu ihrer eigenen ProgrammdirektorIn, indem sie sich aus der Menge der digitalen Angebote sich ihre Inhalte und Formen auswählt und zusammenstellt. Der Witz dabei ist, daß diese Vielfalt nicht durch eine Vervielfachung der Kanäle erreicht wird, über die uns Informationen erreichen, sondern über die Reduktion auf einen Kanal, dessen Kontrolle jedoch in der Hand des Rezipienten liegt. Damit werden aus den alten Medien nur Dienste, die von globalen Dienstleistern angeboten werden, zu denen potentiell auch jede und jeder gehören kann.

Werkzeug-BenutzerIn-Verhältnis

Die drei diskutierten Aspekte - Universalität des Codes, Konvergenz von Individual- und Massenkommunikation und Transformation von Medien zu Diensten - müssen sich auch auf der Ebene des Mensch-Technik-Verhältnisses kategorial niederschlagen. In der Welt der gängigen Informatik-Mainstreams ist an dieser Stelle schlicht von der Input-Output-Relation die Rede. In dieser Welt ist der Mensch eine substituierbare Größe - ob Mensch oder Maschine, ist unerheblich. Hier ist dann auch die operative Einheit des Science-Fiction-Genres, die sog. »Künstliche-Intelligenz-Forschung«, angesiedelt. In der computertechnischen Praxis hat sich dagegen eher die Vorstellung durchgesetzt, daß da jemand ist, der »da draußen« am Computer sitzt. Für die InformatikerInnen »drinnen« geht es darum, dem Menschen »draußen« klarzumachen, was er oder sie tun soll, damit die Funktion korrekt ausführt werden kann. Der Mensch da »draußen« soll »mich« hier »drinnen« richtig bedienen! Der Begriff »BedienerIn« gibt diese Denkweise ziemlich gut wieder, wobei auch andere Bezeichnungen verwendet werden - z.B. »User«, manchmal sogar BenutzerIn. Auch die DAU-Witze blühen vor diesem Hintergrund. Zu dieser Fraktion der Informatik gehören die »Alles-Automatisierer«, etwa die Progagandisten der gescheiterten »vollautomatischen Fabrik« (CIM: computer integrated manufacturing) aber auch die noch nicht ausgestorbenen Anhänger der Großrechnertechnik.

Für eine kategoriale Wende in der Informatik notwendig ist ein reinterpretierter BenutzerInnen-Begriff. BenutzerInnen sind eben nicht objektförmig-passive EmpfängerInnen von Maschinen-Outputs, auf die sie mit maschinenkompatiblen Eingaben reagieren sollen, um die Maschine zu bedienen. BenutzerInnen sind als Subjekte zu konzeptualisieren, die aktiv Computer als Mittel ihrer Zweckerfüllung und Bedürfnisbefriedigung benutzen. Das setzt natürlich voraus, daß die Informatik einen Subjektbegriff haben muß. Genau hier hapert es jedoch. In der Informatik weiß eigentlich keiner so genau, was ein Mensch ist. Irgendwie eine komplexe, neuronal-gesteuerte Input-Output-Maschine plus Emotions-Einheit oder so...

Der BenutzerIn steht der Computer nicht unvermittelt gegenüber, sondern der Computer ist ein gesellschaftliches Produkt, ein Werkzeug. Er wurde hergestellt, damit subjektiv erwünschte Ziele erreicht werden können, sei es in der Produktion, als Mittel der Kommunikation und des unmittelbaren Konsums. Eine Werkzeugfunktion des Computers besteht u.a. darin, Dienste abrufen zu können. Dienste sind Leistungen, die ein Anbieter für Produktion, Kommunikation oder direkte Konsumtion bereitstellt. Das Mensch-Technik-Verhältnis kann also inhaltlich konsistent als BenutzerIn-Werkzeug-Verhältnis gefaßt werden.

Da es heute nicht mehr nur um das Verhältnis eines Menschen zu einem Computer geht und die Gestaltung der globalen Netze maßlich die Benutzbarkeit bestimmt, muß auch diesem Aspekt begrifflich Rechnung getragen werden. Mit Infrastruktur oder Netzdesign als ökonomisch-politischen Kategorien ist das technische Netzlayout gemeint, also solche Parameter wie Standards, Bandbreiten, Anschlußpunkte, Endgerätetechnik etc. Ferner gehört dazu auch der Aspekt der Verfügungsgewalt über die Netze, also die ökonomisch-politische Hoheit, die NutzerInnen-Verfügung, die Kontrolle, der Datenschutz etc. Ich will hierauf noch etwas genauer eingehen.

Zugang als politische Schlüsselfrage

Alle geschilderten Möglichkeiten sind in und mit den globalen Netzen realisierbar, und es gehört immer auch zur Ideologie der »Informationsgesellschaft«, diese Aspekte hervorzuheben. Dennoch möchten die Konzerne und die Politik den Widerspruch, der den globalen Netzen immanent ist, der Widerspruch zwischen Kontrollverlust und Kontrollnotwendigkeit, zu ihren Gunsten lösen. Die Entwicklungsrichtung dieses Widerspruchs hängt ganz entscheidend vom Zugang zu den Netzen und damit von Design der Netzwerke ab. Da das Sender-Empfänger-Modell hinfällig geworden ist, sind neue begriffliche Differenzierungen von Kommunikationsmodi notwendig, um das strategische Thema »Zugang« analytisch aufschließbar zu machen.

Die noch vorherrschende und mit den »alten« Medien verbundene Form technisch vermittelter Kommunikation ist durch einen Zuteilungsmodus gekennzeichnet. Informationen werden hier zentral verteilt und dezentral rezipiert (oder nicht). Grundfragen sind hier bisher die der Meinungsvielfalt, Ausgewogenheit und inhaltlichen Quotierung - unabhängig davon wie man die Umsetzung dieser Kriterien beurteilt.

Diese Fragen spielen im Konsultationsmodus der neuen Kommunikationstechnologien nur noch eine untergeordnete Rolle. Hier werden die Information und Dienste dezentral aus einem Pool von Angeboten nach individuellen Kriterien ausgewählt. Entscheidend ist nicht, wer etwas anbietet - im Internet sind erstmal alle gleich -, sondern ob der Zugang für alle gewährleistet ist und ob Möglichkeiten zur Informationsselektion bestehen. Letzteres hängt vor allem von der Qualifikation der Teilnehmenden ab, denn Informationen und Dienste müssen in Zukunft aktiv gesucht statt nur passiv konsumiert werden. Für mich ist dabei selbstverständlich, daß Informationen und Dienste unbeschränkt und unzensiert zur Verfügung stehen.

Zahlreiche interaktive kommunikative Akte bedingen die Identifizierung der Teilnehmenden oder ziehen eine Identifizierung ggf. unbemerkt nach sich. Dieser Aspekt soll mit Begriff des Registrationsmodus' analytisch gefaßt werden. Dabei stehen sich die bewußte freiwillige und die unbewußte unfreiwillige Registrierung der Kommunikationsakte der Individuen gegenüber. Die bewußte freiwillige Identifizierung und Registrierung spielt z.B. beim Telebanking und -shopping aber auch beim Mailing eine wichtige Rolle. An Ergebnissen der unbewußten und unfreiwilligen Registrierung, also etwa den individuellen »Datenspuren« die durch die Benutzung der elektronischen Netzwerke entstehen können, ist vor allem die Dienstleistungsbranche interessiert, die durch Auswertung etwa des Konsumverhaltens ihre Werbung individuell optimieren kann. Zu denken ist hier natürlich auch an die Aktivitäten diverser Überwachungsbehörden.

Der Konversationsmodus faßt die zur Zeit am meisten verwendete Kommunikationsform: das elektronische Mailing zwischen Individuen und Gruppen. Hier geht es um Freiheit, Freiheit des Zugangs, Freiheit von Überwachung und Freiheit von Einschränkungen und Zensur.

Veränderungen in der Produktion

Ich hatte als drei Dimensionen der neuen C-Techniken Produktion und Arbeit, Kommunikation und Konsumtion genannt. Im folgenden will ich mich dem Bereich der Produktion und Arbeit ausführlicher widmen. Ausgehen möchte ich von der Frage, welche Veränderungen im Produktionsbereich zur Zeit zu beobachten sind und welche Rolle dabei die Informatik spielt.

Als großes Schlagwort spielt die »Kundenorientierung« zur Zeit eine wichtige Rolle, oft noch verbunden mit dem Adjektiv »konsequent«. Damit ist gemeint, daß sich die Produktion nicht mehr am anonymen Massenausstoß von Gütern, sondern an der gezielten Produktion nach Kundenwünschen orientieren soll. Es geht hierbei nicht - wie manchmal behauptet wird - um eine völlige Abkehr von der Massenproduktion, sondern um ihre Flexibilierung. Es geht im Extremfall um die massenhafte Produktion von Einzelgütern. Diese neue an spezifischen KonsumentInnenmustern orientierte Produktionsweise konnte und kann erst auf der Basis der fordistischen Massenproduktion entstehen. Wenn man dies nicht bedenkt, mutet folgende Abbildung sonst wie ein Witz der Geschichte an. Am Beispiel des italienischen Waffenfabrikanten Beretta ist hier die Auswirkung von betrieblichen Umstrukturierungen auf die Anzahl der Maschinen, der Beschäftigten, der produzierten Modelle und des Anteils der Nacharbeit veranschaulicht. Das Unternehmen ist im Jahr 1985 wieder beim Stand von 1800 angelangt - was die Anzahl der produzierten Modelle betrifft, die sich nur nach den Kundenanforderungen richtet. Gleichzeitig sank der Nacharbeitsanteil von 80 auf 0,5%, was die drastische Steigung der Qualität der massenproduzierten Waffen widerspiegelt. Dieser Weg war nur über den Aufbau einer fordistischen Massenproduktion zurücklegbar, was die starke Zunahme der eingesetzten Maschinen zu Beginn zeigt. Dies führte gleichzeitig zu einer Zunahme der Beschäftigtenzahl, wobei der Anteil der im Bereich der produktionsnahen Dienstleistungen Beschäftigten ständig ansteigt. Mit einsetzender Rationalisierung der Produktion und Einsatz von EDV geht die absolute Beschäftigtenzahl drastisch zurück. Der Rückgang der Maschinenzahl veranschaulicht hier den vorher dargestellten Universalmaschinencharakter des Computers. Durch Wechsel des Steuerprogramms werden mit einer geringen Anzahl von CNC- und anderen computergesteuerten Maschinen viele Produktionsschritte durchgeführt, für die vorher viele Einzelmaschinen erforderlich waren.

Zurück zu den Änderungen in der Produktion. Kosteneinsparungen sollen erreicht werden durch Verringerung der Fertigungstiefe (Anzahl der Teile, die selbst produziert werden) sowie von Arbeitsteilung, Hierarchien und Betriebsgrößen. Funktionen und Kompetenzen werden auf diese Weise mit aller Verantwortung dezentralisiert (profit-center) oder ausgelagert (Outsourcing). Internationale Konzerne werden in rechtlich selbständige kleine Betriebseinheiten zergliedert (excellente-profit-center) und neu unter dem Dach einer Holding zusammengefaßt. Letzteres wird häufig als »fraktale Fabrik« bezeichnet. Die excellente-profit-center besitzen volle Ergebnis- und Kostenverantwortung. Kostenziele und Gewinnmargen werden zentral in Form von Kennziffern (benchmarks, baselines, cycle times) vorgegeben. Durch dieses System besteht ein permanenter Zwang zur Produktivitätssteigerung und Kostenminimierung. Die Produktivitätsgewinne werden dann jedoch von der Zentrale abgeschöpft und nach strategischen Konzernzielen global reinvestiert oder auch angelegt. Das heißt, daß das lokale Unternehmen keine Verteilungsspielräume hat und, was noch fataler ist, daß kein automatischer Verlustausgleich stattfindet. Auf diese Weise entsteht eine universelle Konkurrenzsituation:

  • von Betrieben mit externen Betrieben oder mit gleichartigen Betrieben im Konzern,
  • von Arbeitsgruppen mit anderen Arbeitsgruppen,
  • der Beschäftigten untereinander,
  • von »Standorten«.

Insofern ist die Standortdebatte nicht etwa ein besonders raffiniertes Konstrukt zur Beeinflussung der Menschen. Die Standortdebatte spiegelt begrifflich die Logik des Kapitalismus wider. Sie liegt im wahrsten Sinne des Wortes nahe. Lag der Kapitalverwertungszwang früher auf der Ebene von Betrieben und Unternehmen, so ist dieser jetzt »durchgezogen« worden bis zum einzelnen Individuum. In dieser Debatte gibt es nur zwei Möglichkeiten: Entweder man geht auf die Verwertungslogik ein und akzeptiert sie als Argumentations- und Handlungsgrundlage. Dann befindet man sich im Zentrum des gesellschaftlichen Mehrheitsdiskurses und kann eventuell Einfluß nehmen. Sachlich und argumentativ gibt es dann jedoch auch keinen Halt mehr vor jeglichen Konsequenzen der neoliberalen Argumentation. Oder man lehnt die Logik ab und stellt sich außerhalb des gesellschaftlichen Mehrheitsdiskurses in bewußter Opposition zur Verwertungslogik. Eine solche Position erfordert jedoch ein kollektives Gegenmachtkonzept, ohne das der Einzelne nicht überleben kann. Einen dritten oder gar individuellen Weg gibt es m.E. nicht.

Zurück zu den Veränderungen in der Produktion. Ein zentrales Modernisierungskonzept ist das sog. Business Process Re-Engineering, kurz BPR, übersetzt sinngemäß etwa Geschäftsprozeß-Neugestaltung. Ziele des BPR sind:

  • Maximierung der Flexibilität und Durchlaufgeschwindigkeit,
  • Optimierung des Zeitmanagements und
  • maximale Transparenz und Kontrolle der Abläufe
durch:
  • Standardisierung, Modularisierung, Client-Server-Strukturen,
  • Integration bisher getrennter Systeme und Abläufe,
  • Externalisierung der Ablaufsteuerung,
  • Abbildung von Abläufen auf CSCW-Systeme: Computer Supported Cooperative Work (Workflow- und Groupware-Systeme).

Verkürzt könnte man sagen, daß alle historischen Rationalisierungschritte der Güterproduktion - von der Standardierung bis zum Enteignung des individuellen Fertigungswissens - analog im Bereich der Informations- und Entscheidungsstrukturen nachvollzogen werden. Entsprechend ist nun auch das mittlere Management an der Reihe. Vor allem ihnen soll das Leitungs- und Steuerungswissen entrissen werden, um es auf Computer zu übertragen. Der Informatik wird beim BPR eine Schlüsselrolle zugeschrieben. Die Wissensenteignung soll dabei nicht so dummdreist geschehen wie es sich die Propheten mit ihren Expertensystemen einmal vorstellten. Beim BPR geht es um Revolutionierung und Vergegenständlichung von Arbeitsorganisation in Form von integrierten computerbasierten Systeme, die die Informations- und Entscheidungsnotwendigkeiten in optimaler Weise widerspiegeln. Nicht das Wissen des einzelnen Experten wird hier angegriffen, sondern das kollektive, vergegenständlichte Prozeßwissen aller am produktiven Prozeß Beteiligten. Darin besteht auch die neue Qualität von BPR.

Um die Rolle der Informatik innerhalb von BPR und allgemein verstehen zu können, muß ich wieder einen kleinen Ausflug in die Geschichte starten, um zu klären, welche materiellen Grundlagen vorhanden sein mußten, damit die Informatik entstehen konnte und warum sie sich dann so reduziert entwickelte wie sie es tat. Die Entstehung der Grundlagen der Informatik werden meist in frühhistorischen Vorläufern von Mathematik und Logik oder im Bereich der Entstehung der Ware-Geld-Beziehung verortet. Das ist sicher alles auch richtig, trifft aber den Kern von Informatik nicht. Damit ist nämlich noch nicht geklärt, warum nicht schon im Mittelalter die Informatik entstand. Die Antwort ist einfach: Die materiell-ökonomische Basis fehlte. Sie wurde erst mit der Industriellen Revolution geschaffen. Um sich klar zu machen, um welche Bausteine es sich handelt, die die Informatik schließlich hervorbrachten, rekapituliere ich die Bestimmungen der Maschinerie, wie sie von Marx benannt wurden. Eine Maschine besteht danach aus drei Teilen, der Bewegungsmaschine, heute würden wir sagen der Energieversorgung, dem Transmissionsmechanismus, in dem wir den Algorithmus erkennen können wie ich ihn vorher schon beschrieb, und der Werkzeugmaschine, dem eigentlich revolutionierenden Element in der Industriellen Revolution. Transmission und Werkzeug verschmolzen in der weiteren Entwicklung zum Kern der industriellen Produktion. Sie sind Quelle und Gegenstand der Algorithmisierung und damit Informatisierung der gesellschaftlichen Arbeit. Dabei ging es immer um die Formalisierung und Operationalisierung sowohl der Produktion wie auch ihres infrastrukturellen Apparats. Während zunächst im Bereich der stofflichen Produktion durch Algorithmisierung und Rationalisierung die größten Produktivitätsfortschritte erzielt wurden, steht heute die informationelle Widerspiegelung der materiellen Produktion im Zentrum der Aufmerksamkeit. Wie kam aber die Informatik ans Licht der Welt, mit der der Industriekapitalismus schwanger ging?

Verselbständigung der Informatik

Nach meiner Auffassung waren es zwei Schritte, die in eine Verselbständigung der Informatik als eigenständige Disziplin mündeten. Zunächst ist hier der Übergang von der analogen in die digitale Form zu nennen. Wie vorher schon einmal dargestellt, erkannte Turing, daß die digitale Algorithmusmaschine universell ist. Das widerum aber bedeutet für den maschinellen Industrieprozeß, daß Werkzeugmaschine und Algorithmus voneinander getrennt werden können. Damit konnte die Algorithmik zu einem eigenständigen Untersuchungsgegenstand werden. Ein zweiter Schritt war die zunehmende praktische Übertragung von menschlichen Tätigkeiten in einen formalisierten und damit objektivierten maschinellen Prozeß - zunächst noch in analoger, später dann mehr und mehr in digitaler Form. Marx nannte zwei Beispiele: die Übertragung der Werkzeugführung durch den Arbeiter auf die Werkzeugmaschine und schließlich die Ablösung der einfachen Kooperation von Arbeitern durch eine »Kooperation von Maschinen«. Es lassen sich heute beliebig viele weitere Beispiele nennen: von der berittenen Post zum E-Mail, von der Lohntüte zum Girokonto, von der Kartei zur Datenbank, von händischer Nachrichtenverschlüsselung zum PGP (pretty good privacy - Verschlüsselungsprogramm), von der Kanone zur Cruise Missile. In der Regel ging es bei der Übertragung menschlicher Tätigkeiten oder Fertigkeiten auf eine Maschine um mechanische oder algorithmisch eindeutig definierbare Vorgänge. Umgangsprachlich nennt man z.B. das exakte Befolgen einer Vorschrift immer noch »mechanisch«. Die Automatisierung und Übertragung solcher Vorgänge auf Maschinen zeichnet die Informatik aus. Zusammen mit der digitalen Form ergab sich eine unwiderstehliche Mischung, der sich anfangs nur Langsamkeit der realen Computer in den Weg stellte. Gedanklich waren die technischen Hürden jedoch schon lange vorher überwunden worden.

Aus dieser Geschichte der Informatik - die übrigens noch nicht lange und auch nicht überall »Informatik« heißt - erklärt sich auch das heutige Selbstverständnis, oder besser Selbstmißverständnis: Die Informatik habe es wesentlich mit einer Trennung der formalen und nichtformalen oder nichtformalisierbaren Anteile von Tätigkeiten zu tun. Die formalen Anteile werden formalisiert und als Algorithmus auf die Maschine übertragen. Eine kategorial begründbare »Grenze« für die Formalisierbarkeit besitzt die Informatik jedoch nicht. Das Nichtformalisierbare ist für die Informatik bloß ein algorithmisches Problem, als solches folglich nur noch nicht formalisierbar. Die Informatik hat die Erfahrungen ihrer Entstehung schlicht in die Zukunft verlängert. Alle Schranken sind bloß moralischer Natur und damit wirkungslos. Hieraus speist sich auch der hilflose Verantwortungsdiskurs mit seinem »Das darfst Du aber nicht tun, denk' an die Folgen«. Umgekehrt würde ein Schuh draus: Die Informatik agiert blind, denn sie besitzt keine kategoriale Grundlage, die sie als Wissenschaft ausweist und als solche von anderen abgrenzt. Sie kann ihre wirklichen Potenzen gar nicht erst entfalten. So besitzt sie

  • keinen Bedeutungsbegriff und damit auch keinen Formbegriff,
  • keinen Subjektbegriff und
  • keinen Gesellschaftsbegriff.

Was bleibt ist eine bloße Übersetzungswissenschaft. Das Formalisieren von Formalem ist genau betrachtet nur ein Übersetzungsvorgang - von einer Form in eine andere. Ich muß die Form nur finden, schon kann ich sie als geübter Techniker übertragen. Dabei helfen mir dann Methodentools - grafische Übersetzungsprogramme. Oder Compiler - auch Übersetzungsprogramme. Und alles in integrierter Form nennt sich dann CASE - computerunterstützte Softwareentwicklung. Die innerinformatische Disziplinunterteilung geschieht dann in der Regel auch nur nach »Übersetzungsanwendungsfällen«. Würde man die Verhältnisse der Informatik auf die Germanistik übertragen, so wäre die Germanistik nur noch eine Grammatikwissenschaft.

Die Informatik hat aufgrund ihrer großen ökonomischen Bedeutung die Rolle einer Leitdisziplin inne. Informatische Produkte sind unmittelbar relevant für die Kapitalverwertung. Theoretisch gibt es einen Gemischtwarenladen an Theorieversatzstücken, oft zudem noch als Anleihen aus computerkompatiblen Hilfsdisziplinen. Die Hilfsdiziplinen, die sich der Informatik andienen wollen, um an ihrer Bedeutung zu partizipieren, integrieren Leitbegriffe der Informatik in ihre Theorien, z.B. den Begriff der »Informationsverarbeitung«. Diese Art der »Interdisziplinarität« erhält dann auch noch das Prädikat »besonders wertvoll«.

In der Einleitung zu dieser Veranstaltung wird die Frage gestellt, ob »sich die Wissensproduktion vom Menschen und seinen Bedürfnissen entfernt hat und womöglich zu einer Art Selbstlauf geworden ist.« Ich würde den Begründungszusammenhang anders formulieren: Die Wissensproduktion hat sich nicht von den Menschen und ihren Bedürfnissen entfernt, weil sie zum Selbstlauf geworden ist, sondern weil sie sich zunehmend an der Verwertung orientiert.

Diese negativ klingende These enthält auch einen positiven Aspekt, und zwar den der gestiegenen Praxisrelevanz. Bei aller Kritik denke ich, daß man das für das Informatikstudium beobachten kann. Das Problem ist nur: Relevanz für welche Praxis? Es geht um eine Praxis, in der die Verwertungsgesetze verhindern, daß sich eine an Zwecken und Bedürfnissen orientierte Informatikpraxis durchsetzt. Die Schaffung von Gebrauchswerten ist nach wie vor nur Abfallprodukt der Kapitalverwertung - und die meisten Produkte sind gemessen an den Möglichkeiten meist nur Schrott. Hier spreche ich auch aus meiner praktischen Erfahrung. Fokus aller Informatikpraxis ist der Tauschwert. Das klingt banal und ist auch nichts Neues, es ist eben trotz Postmoderne immer noch so, daß der Kapitalismus so funktioniert.

Eine spannende Frage für mich ist die nach den Entwicklungsgrenzen des Kapitalismus. Auch das ist keine neue Frage, doch nach den Erfahrungen der großen Flexibilität, Integrationskraft und immanenten Entwicklungsmöglichkeiten des Kapitalismus ist sie immer weniger gestellt worden. Nach Marx tritt ein nicht integrierbarer Entwicklungswiderspruch auf, wenn der Rahmen der Produktionsverhältnisse zu eng wird für die gegebene Art der Produktivkraftentwicklung. Für mich steht die Frage, ob die Subjektivität, bzw. ihre Funktionalisierung, ein solche Grenze der Produktivkraftentwicklung durch Technik und Wissenschaft bildet. Als Pole des Widerspruchs sehe ich die einerseits geforderte Subjektvitätsentfaltung zum Zwecke der Produktivitätssteigerung, andererseits die Notwendigkeit der Sicherung der Herrschaft über die Subjekte. Wenn das dann noch mittels Informatik geschehen soll, klingt das für mich wie die doppelte Quadratur des Kreises: die Subjekte zur Entfaltung mittels Informatikprodukten zu »manipulieren« - ohne zu wissen, was Subjekte eigentlich sind und bei voller Kontrolle über die Subjekte.

Die kritische Informatik

Natürlich wird das innerhalb der Informatik teilweise auch gesehen, zumindest in Ansätzen und in anderen Worten und meist mehr moralisch motiviert. Die kritische Informatik ist, da sie genauso begriffslos wie der Mainstream ist, bunt und vielfältig und harmlos. Mit großem Interesse werden solche Theorieangebote aufgenommen, die sich mit Selbstorganisation, Autopoiesis, Systemtheorie etc. beschäftigen. Diese Ansätze wurden ursprünglich in den Naturwissenschaften zur Überwindung linear-kausaler Denkweisen entwickelt. Ziel war dort die Überwindung von Vorstellungen, wonach sich die komplexen Phänomene der Natur linear aus Einzelphänomenen zusammensetzen, die wiederum Einzelursachen besitzen. Es konnte gezeigt werden, daß ein Ganzes sich nicht immer aus der Summierung der Teile ergibt, da der funktionale Zusammenhang von Ursachen und Wirkungen nicht immer linear-kausal ist, sondern in vielen Fällen nichtlinear-kausal. Selbst diese immanente Kritik anzunehmen, fällt den Naturwissenschaften schwer, weshalb den VertreterInnen von Selbstorganisationstheorien immer irgendwie etwas Oppositionelles, Neudenkerisches, Umwälzlerisches anhaftet. Vielleicht ist es dieser oppositionelle Nimbus, der entsprechende sozialwissenschaftlichen Adaptionen dieser Theorien so attraktiv erscheinen lassen. Ein wichtige Rolle spielt dabei die Systemtheorie wie sie von Luhmann vertreten wird. Die Systemtheorie hat den Anspruch, über alle Erscheinungen hinweg eine einheitliche Erklärung zu bieten. Maschinen, Leben, Denken, Gesellschaft werden hier nach einem Ansatz erklärt. Es ist klar, daß eine solche Theorie bei so unterschiedlichen Bereichen sich nur auf äußerst formale Aspekte dieser Erscheinungen beschränken muß. Ein solcher formaler Begriff ist das »System«. Die Systemtheorie hat den Anspruch, jegliches System - egal welcher Komplexität - erklären zu können. Ein Kernkonzept ist die Selbstreferentialität, die Selbstbezüglichkeit von Systemen - ein Begriff aus der Chaostheorie. Es ist folglich klar, daß es für die Systemtheorie keine Subjekte geben kann: »Die Systemtheorie ... hat ... keine Verwendung für den Subjektbegriff. Sie ersetzt ihn durch den Begriff des selbstreferentiellen Systems«, den sie für alle Systeme verwendet.

Die Attraktivität der Systemtheorie besteht darin, daß sie irgendwie beschreibt, was ist. Verhalten sich die Menschen nicht wie maschinenhafte Systeme? Ist die Gesellschaft nicht permanent auf sich selbst bezogen und schottet sich ab? In der Fassung des Sozialen als System - und daran sind kritische InformatikerInnen interessiert - handelt es sich nach meiner Ansicht nur um eine theorieförmige Verdopplung der eigentlich theorielosen Praxis. Die Systemtheorie erklärt, das das, was man beobachten kann, auch theoriegemäß so sein muß - irgendwie. Dort, wo die Mainstream-Informatik wie der Ochs vor'm Berg steht, haben kritische InformatikerInnen nun Erklärungen. Da die Systemtheorie in Reinform wohl doch etwas zu hart ist, mischen viele sie noch mit einem Schuß Weizenbaum und Verantwortung.

Die Selbstreferentialität bezogen auf Soziales faßt etwas Reales, nämlich die Tatsache, daß der Kapitalismus durch die Warenform aller Dinge aus dem Verhältnis von Personen nurmehr ein Verhältnis von Dingen macht. Diese »Verdinglichung« oder »Versachlichung« nannte Marx Waren- und Geldfetisch. Entsprechendes findet sich bei der »fraktalen Fabrik« mit der Selbstreferentialität jeder fraktalen Betriebseinheit: Sie beschreibt den Ausdehnung der Profitorientierung auf alle Ebenen, vom Betrieb bis zum einzelnen Beschäftigten. Genauso ließe sich vielleicht eine »fraktale Gemeinschaft« definieren, ein selbstreferentielles Gesamt von Individuen, die sogenannte Gesellschaft, in dem alle Beziehungen Warenform angenommen haben. Und für die Deutschen schlage ich dann den Begriff »fraktale Volksgemeinschaft« vor.

Durch diese Zuspitzungen will ich verdeutlichen, daß man durch theorieförmige Verdopplungen einer an sich theorielosen Praxis nicht weiterkommt. Notwendig sind gegenstandsangemessene analytische Begriffe, die die Entwicklung von praxisrelevanten Einzeltheorien ermöglichen. Ich maße mir nicht an, daß die von mir vorgeschlagenen Begriffe die sind, die ich einfordere. Sie sind mein Diskussionangebot auf dem Weg zu einer Theorie der Informatik. Ich mache mir auch keine Illusionen darüber, ob es unter den heutigen Bedingungen überhaupt eine Alternative zur Mainstream-Informatik geben kann. Vermutlich müssen sich auch die Bedingungen ändern.

Alternative Informatik unter alternativen Bedingungen

Wie könnte eine alternative Informatik unter alternativen Bedingungen aussehen? Für mich ist die Informatik keine Technikwissenschaft mit sozialen Bezügen, sondern umgekehrt eine Sozialwissenschaft mit Technikbezügen. Diese Tatsache muß sich kategorial niederschlagen, so in entwickelten analytischen Leitbegriffen wie

  • Information bzw. Bedeutung und Form,
  • BenutzerIn, Werkzeug und Dienst,
  • Infrastruktur und Netzdesign etc.

Ferner kann ich mir gut vorstellen, daß wir unter Bedingungen des Vorrangs der Gebrauchswertproduktion mehr Selbstbezug bei der Wissensproduktion benötigen. Unter diesen Bedingungen ist nämlich die freie Entfaltung jedes einzelnen wissenschaftlichen Tätigen die Voraussetzung für die Entfaltung aller. Bisher hat sich der Mensch, obgleich zwar Hauptproduktivkraft, immer nur mitentwickelt - heute mit Technik und Wissenschaft. Unter alternativen Bedingungen, wie sie angesichts des gegenwärtigen Standes der Produktivkraftentwicklung anstehen, geht es darum, daß sich der Mensch als Produktivkraft an sich entwickelt und auch für sich entwickelt. Danach wäre es eine Strategie, den beschiebenen Widerspruch zwischen Subjektivitätsentfaltung und Kontrollnotwendigkeit über die Subjekte bewußt zu entwickeln, voranzutreiben und zuzuspitzen, um die Integrationsfähigkeit des Kapitalismus entweder erneut auszuweiten oder auszuhebeln. Das ist meine persönliche Utopie in dieser utopiearmen Zeit.

Kants Fragen sind nicht so verstaubt, wie ihr Entstehungsdatum und -umfeld vermuten mag. Was kann ich wissen? Alles, denn die Erkenntnismöglichkeiten sind unbegrenzt. Was soll ich tun? Alles, um mir das Wissen zu organisieren - gegen die herrschende Sicht und zur Zeit auch gegen die Denkweisen der Mehrheit der Leute. Dabei muß ich es aushalten, daß eine konsistente Weltsicht noch nicht möglich ist. Was darf ich hoffen? Alles, denn die Geschichte ist nicht am Ende, und es gibt Widersprüche, die nicht integrierbar sind. Ich muß aber auch fragen: Was darf ich nicht hoffen? Daß Geschichte von alleine »passiert«.