bussole-Logo und Wortmarke

Texte


1) Architektur der Realität - Information
2) Analysemethoden
® Die Sprache der Daten - die 4fF-Methode
® Am Anfang ist das Wort - die ML-Methode
3) Die weitreichenden Aspekte der Information

1) Architektur der Realität - Information

Diesen Aufsatz finden Sie auf www.infomath.bussole.de

2) Analysemethoden

Was ist Analysieren?

Die ersten Schritte sind die schwierigsten - nicht nur für Kleinkinder, auch für jeden Programmierer (neudeutsch Software-Engineer oder BO-Designer), der neu an ein Problem herangehen muss. Und wie ein Kleinkind fängt jeder immer von vorne an, es gibt keine Abkürzungen bei Analysen.

Wer das denkt, irrt. Klar können Ähnlichkeiten verwendet werden, doch muss dafür der Grad der Ähnlichkeit überprüft werden: Birnen mit Äpfel zu vergleichen, passiert zwar dauernd, das Richterpodium "Computer" und "Kunde" ist freilich gnadenlos und deckt solche Schlampereien früher oder später auf. Je später, umso ärgerlicher.

Wie aber an Analysen herangehen? Analysen sind eine Sache des "Bewusstseins", des "Talents" und der "Ausbildung", heißt es. Nur umfangreiche Qualifikation in der Informatik und lange Berufserfahrung sollen hier helfen und das heißt: als Neuling immer stolpern, stolpern, stolpern? Eine Methode nach der anderen ausprobieren, bis man die rechte gefunden hat, die einem persönlich zusagt?

Oder besser auf seine eigene "Begabung" und "Intuition" vertrauen? Wer alleine eigene Software erstellt und betreut oder wer nur eine Handvoll Dateien (persistente Objekte) zu jonglieren hat, dem mag seine Intuition ausreichen, um Analysen zu erstellen, die Masse in unserem Job jedoch muss sich in weniger komfortablen Umständen zurechtfinden wie in Multifile Databases mit mehreren hundert Dateien und Millionen von Statements in zwangsweise überaltertem Source-Code.

Und was heißt schon "Analysieren"? Das eigene Genie entfalten, Gespräche mit Kunden führen, Protokolle schreiben, Konzepte erstellen, UML nutzen?

ANALYSIEREN HEIßT, DIE INFORMATION IM SYSTEM ZU ERKENNEN

Nur wer die Information erkennt, kann sie auch verarbeiten - das ist schließlich Sinn und Zweck unseres Jobs. Information über eine Eigenschaft ist aber die Gruppe wiederholbarer Wertveränderungen dieser Eigenschaft und damit sind Werte, die Zustände der Eigenschaften, immer der erste Anfang, um an ihre Information heranzukommen: Werte sammeln und in eindeutige, wiederholbare und damit überprüfbare Relation zueinander zu setzen, das ist Analysieren, mehr nicht.

Die Sprache der Daten - die 4fF-Methode

Jeder Softwerker muss sich früher oder später mit dem Problem der Stabilität von Zuständen beschäftigen. Ob er das in den altbekannten Dateien tut und sie als "Daten" ansieht oder in modernen Entwicklungsumgebungen und sie dort "persistente Objekte" nennt - sie sind nichts weiter als die Nachrichten der computerisierten Verarbeitung, die sie erstellt haben. Und dokumentieren deshalb längst nicht nur den bearbeiteten Gegenstand, sondern auch die Verarbeitung selbst - Daten beinhalten deshalb nicht nur das Offensichtliche, sondern immer auch Verbindungen und Zusammenhänge, unter denen sie verarbeitet wurde. Nur deshalb macht es überhaupt Sinn, sie unter den verschiedensten Blickwinkeln zu betrachten, wie es die diversen Auswertungssysteme (wohl bekanntestes Stichwort ist Data-Warehousing) tun. Und es macht damit auch Sinn, sich am Anfang einer neuen Applikation Gedanken über ihre Struktur zu machen, um die Aussagekraft der Daten zu fördern. Was die Zeit letztendlich überdauert, sind nie die Programme: Es sind und bleiben die Daten.

Daten sind die einzelnen "Zustände" unser Applikationen, sie sind die Nachrichten der Ereignisse, die durch unsere Programme verarbeitet wurden. Sie sind damit die stabilen Zeugen dessen, was geschah - losgelöst von den einzelnen Zwischenschritten, etwaigen Irrtümern und Fehlentscheidungen dokumentieren sie das Resultat der ganzen Mühen. Aus der Natur der Information heraus stellen sie die Schnappschüsse der verarbeitenden Information dar und erlauben damit immer unzweifelhafte Rückschlüsse auf die in ihnen steckende Information und die Struktur der Verarbeitung.

Vier zählbare Gewichte lassen nutzen dies aus: das Eigengewicht und das Profilgewicht als feldbezogene Größen, das Portal- und das Exitgewicht als auftragsbezogene Größen. Es sind einfache Zahlen, die paarweise zusammengefasst feldbezogene und aufgabenbezogene Typen bestimmen lassen. Gerade den feldbezogene Typ kennt jeder Datenbänker: die Unterscheidung von reinen Informationsfeldern wie freien Texten (deskriptive Felder), von Typenfeldern wie Länder, Sprachen und Anreden (akzentuierende Felder), von bedeutenden Schlüsselfeldern wie Kunden, Teile und Belegnummern (dokumentierende Felder) und letztlich auch Organisationselementen wie Buchungskreisen und Mandanten (klassifizierende Felder). Der aufgabenbezogene Typ dagegen ist nur in größeren Dateisystemen wirklich interessant.

Diese Gewichte lassen gerade über ihre Kombination in einer Dateistruktur sogar Abschätzungen über die Aussagekraft des jeweiligen Datenaufbaus (Schema) zu. Was das heißt? Dass sie messen lassen, wie genau ein bestimmter Datensatz ohne genauere Kenntnis eingekreist werden kann mit den jeweiligen Suchbegriffen. Das "nautische Problem" ist in Zeiten der Massendatenhaltung von wachsender Bedeutung: Daten müssen längst nicht nur abgelegt, sondern immer auch wieder gefunden werden. In kleinen Datenbanksystemen mit wenigen hundert Datensätzen mag dies noch nicht besonders wichtig erscheinen, doch in größeren Mengen können Daten geradezu unsichtbar werden. Je stärker strukturiert Daten also sind, umso leichter kann die Suche diese Struktur ausnützen - und umso leichter können die Daten auch unter ganz anderen Gesichtspunkten ausgewertet werden als unter denen, unter denen sie zuerst erstellt wurden.

Eine Datei, die als "dokumentativ" eingestuft ist, kategorisiert einen einzelnen Datensatz mit Typen, Klassifizierungen oder Schlüsselfelder so genau, dass er über diese Typisierungen auf ein paar zig Sätze eingekreist werden kann, die sogar auf einen Blick überschaut werden können. Solche Typisierungen gruppieren demnach die Daten in überschaubare Blöcke, was auch für Auswertungen aller Art verwendet werden kann und den ganzen Datenbestand damit schlicht wertvoller macht.

Also lassen Sie Ihre Daten sprechen!

Unsere Werte sind die Daten, die wir immer irgendwie erhalten, wenn wir Software verändern sollen. Ob in Excel-Sheets, als relationale Datenbank, als XML-Dokument oder als Schmierzettel, immer haben wir Werte von Eigenschaften vor uns, deren mögliche Zustände und stabile Beziehungen in Art und Logik wir herauskristallisieren sollen. Und wenn wir sie schon "Daten" nennen, wissen wir längst, zu welcher "Eigenschaft" sie gehören.

Die 4fF-Methode nun ist die in Zahlen gefasste Erfahrung der Datenbank-Programmierung, die jeder "intuitiv" beherrscht, der jahrelang damit gearbeitet hat. Jeder kennt den Unterschied zwischen Textfelder und Kundennummern, Felder für Formatierungen und Mandanten, jeder weiß intuitiv SQL zu lesen, relationale Verbindungen zu interpretieren - doch auf welchen einfachen Zahlen sich dies reduzieren lässt, wissen viele eben nicht.

Wenn jedes Dateifeld als Eigenschaft gesehen wird, deren mögliche Werte die Inhalte dieses Feldes sind, dann lässt sich die Information, die als Ursache hinter diesen Werte steckt, durch ein paar einfache Zahlen einkreisen.

Vier sind es insgesamt: Zwei sind recht einfach aus den Feldinhalten selbst zu bestimmen, für die beiden anderen sind Kenntnisse der Zusammenhänge erforderlich.

Eigengewicht

Der erste und einfachste Wert basiert auf der Anzahl der unterschiedlichen Werte: das Eigengewicht.

1. ge = 1 / (k-1)

Wer die Werte einer Eigenschaft kennt, kennt schon sehr viel über die Menge der wiederholbaren Transformationen dieser Eigenschaft, sonst wäre die allgegenwärtige Gleichsetzung von Nachricht mit Information nicht möglich. Lassen sich nun ausgehend von einem bestimmten Wert einer Eigenschaft, dem Ursprung, durch wiederholbare Veränderungen alle übrigen Werte eines Wertebereichs erreichen, so wird diese Menge von Transformationen die Mindestinformation bezüglich des Ursprungs genannt. Für abzählbare Wertebereiche gilt, dass die Anzahl der Transformationen in der Mindestinformation der Anzahl der Werte gleich ist. Dies spiegelt auch die Wahrscheinlichkeitstheorie wider, die bei Unkenntnis der Situation, also ohne nähere Informationen, immer von einer Gleichwahrscheinlichkeit des Auftretens der bekannten Fälle ausgeht.

Deshalb wird das Eigengewicht eines Dateifelds bestimmt zur Wahrscheinlichkeit, mit der ein Wert auftreten kann. Bezeichnet ge das Eigengewicht und k die Anzahl der möglichen Werte eines Dateifeldes, so könnte als Eigengewicht angesehen werden ge = 1/k.

Eine Adresse beispielsweise hat ein sehr niedriges Eigengewicht im Normalfall, die meisten Anwendungen pflegen mehrere tausend Adressen zu kennen: 1/1000 ist schon recht "leicht" und zeigt auf, dass die in Adressen verborgene Information genau deshalb sehr leicht untergehen kann, weshalb auch die besagten Anwendungen mehr oder minder komfortable Suchmechanismen zur Verfügung stellen. Umgekehrt hätte eine Konstante das Eigengewicht von 1 und damit die Sicherheit des Wissens, was in diesem Feld untergebracht ist und selbst wenn der Wert der Konstanten vergessen würde, genügt ein Blick in die Datei, um problemlos die Information dahinter zurückgewinnen zu können, das heißt also, um bequem den Zustand der durch das Feld symbolisierten Eigenschaft wiederherstellen zu können. Kein Mensch wird jedoch Konstanten abspeichern, da sie keine Unterscheidbarkeit ermöglichen. Die Information hinter dieser Konstanten ist demnach nur die entartete Information der Eins-Transformation, die Nichtveränderung.

Für Dokumente oder Medienobjekte funktioniert das Verfahren ganz genauso - diese werden zumeist als "Large Objects" der Art "character" oder "binary" (clobs, blobs) in den üblichen Datenbanken gespeichert. Deshalb davon auszugehen, dass jeder Inhalt verschieden ist, ist sicher in den allermeisten Fällen korrekt. Auch werden sie allein wegen ihres Speicherbedarfs und häufig aufwändiger Aufbereitung zumeist nur an einer einzigen Stelle gespeichert, sie sind also typischerweise "deskriptiv", soll heißen: viele Werte, wenig Verwendung. Damit rangieren sie auf unterster Ebene der Bedeutungsskala, ganz wie freie Textfelder mit all den negativen Konsequenzen für die Navigation: Solche Felder sind praktisch unmöglich aufzufinden, wenn man nicht verdammt genau weiß, wo sie stecken.

Ganze Dokumente oder Medienobjekte sind meistens jedoch weitaus wichtiger als irgendwelche mehr oder minder individuellen Kommentare, die häufig in freien Textfelder untergebracht sind. Deshalb werden sie regelmäßig "beschlagwortet": Sie werden mit Feldern des Typs "akzentuierend" oder "dokumentierend" versehen, die ihren Inhalt charakterisieren müssen. Obwohl also das jeweilige Feld "deskriptiv" ist, wird für solche bedeutsamen Objekte meistens eine eigene Datei erzeugt, deren Datensatz denn wenigstens "dokumentativ" ist - genau das geschieht in jedem Dokumentenmanagement, in jeder Content-Verwaltung.

Tentakelzahl und Profilgewicht

Der zweite Wert ist die Bedeutung der Eigenschaft im gesamten Dateiverbund. Dies wird an der Häufigkeit des Vorkommens gemessen: die Tentakelzahl.

Wenn T die Tentakelzahl ist und p die Anzahl aller betrachteten Datenstrukturen, so ist das Profilgewicht beschrieben als:

2. gp = T/p

Die Tentakelzahl T ist damit eine Abschätzung für die Bedeutung des Feldes im Rahmen des betrachteten Dateisystems oder Moduls.

Bei der Konstruktion der Datenstrukturen ist diese Bewertung noch sehr einfach, doch aus alten Systemen ohne Dokumentation, nur mit Dateninhalten und dem ausführbaren Code einer ausgeuferten Anwendung heraus, ist oft schwer zu entscheiden, ob namensgleiche oder namensähnliche Dateifelder tatsächlich dieselbe Eigenschaft symbolisieren. Alle Stempeldaten von Dateien wie ändernde Benutzer und Änderungsdatum haben zwar dieselbe Aufgabe und damit meist auch denselben Namen, doch stellen sie nicht dieselbe Eigenschaft durchgängig durch das ganze Dateisystem dar. Bei diesen Stempeldaten dreht es sich nämlich immer nur um das Protokoll von Tätigkeiten an dieser einen, spezifischen Datei, sie stellen damit Attribute dieses Dateiobjektes dar, während im Gegensatz dazu alle korrelierenden Schlüsselfelder relationaler Datenbanken tatsächlich dieselbe Eigenschaft beschreiben, da sie über diese relationale Verknüpfung Komponenten-Objekte bzw. Vererbung simulieren, selbst wenn sie völlig unterschiedliche Namen tragen. Gerade letzteres ist aber ein Hinweis, wie das Vorkommen von Eigenschaften zu suchen ist, denn jedes verknüpfende Element im relationalen System, jedes Komponenten-Objekt im objektorientierten System stellen solche gemeinsam genutzten Eigenschaften dar. Moderne Anwendungen mit Metadatensteuerung dokumentieren diese Verbindungen sogar automatisch, doch selbst für alte Datenbanken wären technische Lösungen dahingehend denkbar, dass die Felder verschiedener Dateien auf gemeinsame Dateninhalte überprüft werden, um so Verknüpfungen zwischen den Dateien orten zu können.

Während aber endogene Größen den Vorzug haben, unabhängig von der Umgebung betrachtet werden zu können, ist nicht nur die exogene Größe abhängig von der Umgebung, sondern auch ihre Bewertung. Ein hohes Vorkommen der Eigenschaft in den Dateien bedeutet im Idealfall eine große Bedeutung derselben für das betrachtete Dateisystem. In einer Auftragsbearbeitung werden Kundenangaben häufig benötigt, in einer Bücherverwaltung jedoch meist nicht. Ein hohes Vorkommen deutet also auf eine Größe hin, die für die Anwender des Systems von hohem Interesse ist und die es wert sein könnte, aufgebohrt zu werden für weitere Nutzungsmöglichkeiten.

Was jedoch die Bedeutung der Anzahl einfacher Benutzungen in den Dateien in Frage stellt, sind die häufigen redundanten Daten, die in Dateien auftauchen, obwohl Identifikatoren, zu denen sie unabänderlich gehören, ebenfalls in der Datei vermerkt sind. Gerade bei den verbreiteten relationalen Datenbanken ist diese Art der Integration von Attributen der Komponenten-Objekte oft nicht nur aus pragmatischen Gründen wie Performance oder Übersichtlichkeit zu empfehlen, sondern sogar erforderlich, falls die Datei exportiert werden soll in eine externes System, das die Identitäten nicht kennt. Als Verwendungsmaß der Eigenschaft ist damit die gesamte Häufigkeit zu korrigieren um das Auftreten redundanter Vorkommen in Dateien, doch Redundanz ist eine Bewertung, die ohne Kenntnis von Komponentenzusammenhängen aus der Betrachtung eines einzigen Dateifeldes nicht erfolgen kann. Wie im Falle der Verwendung lässt sich diese Redundanz aus der Analyse oder bei alten Datenbanken über Feldpaarungsvergleiche ermitteln oder wenigstens abschätzen.

Die korrigierte Verwendungshäufigkeit ist als Gradmaß für die Bedeutung der Eigenschaft in der Struktur des Dateisystem nutzbar, sie bezeichnet, bildlich gesprochen, die Anzahl der Verbindungsarme des Dateifeldes und wird deshalb, ganz den objektorientierten Ansprüchen von sprechenden Namen folgend, Tentakelzahl T genannt.

Portal-Distanz und Portalgewicht

Für eine Einschätzung der Bedeutung dieses Dateifeldes interessiert neben diesen feldbezogenen Eigenschaften auch die Verwendung, zu deren Zweck dieses Feld benötigt und mit Werten versehen wird. Keine Datenstruktur kann jedoch Intentionen oder Ziele darstellen, sie ist lediglich Abbild einer Nachrichtenstruktur, deren Charakteristik sie ganz zweckgebunden und von Ihrer Applikation kontrolliert auf einige Datenfelder und ihre Wertebereiche einschränkt. Aber gerade Ihre Intentionen und Ziele, mit denen Sie die Applikation erstellten, bilden den Selektionsmechanismus, nach dem aus dem Überangebot von Nachrichten aller existierenden Informationsmengen ausgewählt wurde, also kann dieser Selektionsmechanismus selbst als Nachricht genutzt werden.

Die Verwendung durchgeführt wird von der Applikation, deren Aufgaben von der Analyse bereits den einzelnen Objekten zugeordnet wurde. Die Aufgaben werden einerseits in die einfachen Objektverwaltungen eingeteilt, die als implizit in jedem Objekt vorausgesetzt und nur in Sonderfällen überhaupt beschrieben werden, andererseits in die individuellen Objektdienste, die wiederum in Berechnungen und Protokolle (calculation&monitoring) unterteilt sind, deshalb lassen sich Inhalte von Datenstrukturen auch als Protokollaufzeichnung oder Berechnung typisieren.

In Ihrer Analyse haben Sie klar festgestellt, woher Ihre Daten jeweils stammen, ob sie aus einer Schnittstelle (interface), also von Anwendern, Importen oder Peripherie-Systemen, stammen oder ob sie aus vorhandenen Daten über Berechnung und Vergleich oder durch die Eingangsdaten Ihrer Organisationseinheit am Interface ermittelt worden sind. Da Information die Menge wiederholbarer Wertveränderungen ist, wird als Portal-Distanz die Zahl der durchgeführten Wertveränderungen im Dateisystem bezeichnet, bis der Inhalt im betrachteten Datenfeld benutzt und abgespeichert werden kann. Die Portal-Distanz ist also eine Abschätzung des eigenen Verarbeitungs-Anteils an den gespeicherten Daten. Sie entspricht der Kaskadenlänge von Threads aus der objektorientierten Analyse vom Eintritt des Datums in das System bis zur aktuellen Speichereinheit unter der Bedingung, dass nur die speicherbaren Objekte berücksichtigt werden. Somit errechnet sich die Portal-Distanz aus der Anzahl der Dateien seit der Eingabe seitens Anwendern, Importen oder Peripherie-Geräten. Dabei ist zu beachten, dass die von außen kommenden Daten nicht unbedingt exakt der Feldinhalt des betrachteten Dateifeldes sein müssen. Für die Portal-Distanz sind auch Eingabefelder zu berücksichtigen, die für die Ermittlung des betrachteten Dateifeldes benötig werden. Damit zeigt sich schon eine Möglichkeit, Datenstrukturen sprechender zu machen einfach dadurch, dass in jeder Datei, deren Objekt einen Inhalt aus anderen Dateien benötigt, Spuren dieser Transaktion vorliegen sollten. Denn selbst wenn im Zeitpunkt der Erstellung die ganze Applikation glasklar und durchsichtig erscheint, so wird in späterer Zeit, wenn die geduldige "Informationsentropie" ihr Werk durch Massen von Datensätzen und überaltete Dokumentationen erfolgreich verrichten konnte, nicht viel mehr zur Interpretation mehr vorliegen als die Dateien selbst und daran ändert auch eine objektorientierte Datenbank wenig. Auch objektorientierte Datenbanken werden zur Darstellung ihrer Nachrichten auf ihre speicherbaren Variablen reduziert, getrennt von ihren Zusammenhängen und Methodiken.

Für kleine Anwendungen sind die Eingangsdaten meist Dateneingaben von Benutzerseite her, also aus Windows oder Web-Anbindungen, doch auch Messwerte von an Ihrem System angeschlossenen Instrumenten wie Uhren gehören dazu. Werden Dateninhalte durch mehrere Dateien bzw. Komponenten-Objekte hindurchgereicht oder aus mehreren Dateninhalten berechnet, so ist maßgeblich für die Portal-Distanz die letzte Änderungsmöglichkeit durch Anwender, Importe oder Peripherie-Geräte. Darunter fallen jedoch nicht reine Auswahlen aus bestehenden Datensätzen, wenn der Inhalt dieser Dateifelder nicht geändert werden darf.

Haben Sie also eine Buchhaltungssoftware mit den Basisdaten Personen, Konten und Mehrwertsteuersätzen und einer Buchungsverwaltung mit automatischer Journalisierung, so ist für diese Journaldatei selbst keine Eingabe möglich, die Portaldistanz ist damit immer mindestens 1. Ausgehend von der Datenstruktur der Buchungen jedoch ist die Buchungsverwaltung das Portal für die Dateninhalte der Geldbeträge, die Distanz der Buchungsdatei ist also Null für die Geldbeträge, deshalb auch für die mithilfe der Geldbeträge, aber auch der Mehrwertsteuersätze ermittelten Steuerbeträge, während Personen, Konten und Mehrwertsteuersätze aus den Basisdaten diesem Vorgang über Auswahl nur zugeordnet werden, in ihren eigenen Werten jedoch nicht verändert werden dürfen. Die Distanz ist demnach für die Datenstruktur der Buchungen 1, für die Datenstruktur des Journals sogar 2.

Wenn P die Portal-Distanz bezüglich einer Datenstruktur d ist und p die Anzahl aller betrachteten Datenstrukturen, so ist das Portalgewicht beschrieben als:

3. gpd= P/p

Ein Portalgewicht von Null bedeutet also, dass der Inhalt eines Dateifeldes ganz direkt in diese Datenstruktur gelangte, was ihm protokollarischen Charakter zuweist, also die Kontrolle und Beobachtung von Vorgängen außerhalb Ihres Systems. Höhere Portalgewichte kennzeichnen demgegenüber Zuordnungen, Berechnungen oder Bewertungen, die immer bereits geprägt von eigenen Strukturvorgaben und Algorithmen sein können und damit nicht mehr originär sein müssen.

Exit-Distanz und Exitgewicht

Die Verwendung eines Dateifeldes wird indessen nicht nur durchgeführt, sie dient auch einem Ergebnis. Dies ist Basis der Unterscheidung von Datenstrukturen in logische, also dem Problembereich zuzuordnende oder organisatorische, also dem verarbeitenden System zuzuordnende Dateifelder. Logische Inhalte sind Bestandteil dessen, was verarbeitet werden soll, sind Gegenstand des Interesses der Applikation und ihrer Anwender, wie die Lieferdaten bei einem Verkaufsvorgang, die Eingangszahlung nach der Rechnung, die Verkäufer, die ihre Provision verlangen. Organisatorische Inhalte sind Bestandteil der Organisation, wie das Personal, das vor der Tastatur den Auftrag in die Applikation hämmerte, selbst wenn das Personal in seiner weiteren Funktion als Verkäufer provisionsberechtigt ist. Auch der Mandant oder die Filiale, die in der Applikation benutzt werden, um zwei getrennte Firmen in derselben Datenbank verwalten zu können, gehören zu der Organisation, in deren Auftrag die Software-Anwendung arbeitet. Umsatzzahlen, Gewinnmargen, Lieferzeitoptimierung, solche Auskünfte stecken hingegen nicht in den organisatorischen Daten, die für die Verkaufsverwaltung selbst benötigt werden, sondern nur in den Daten, die aus den Anforderungen des logischen Problembereichs heraus in Datenstrukturen fixiert wurden.

Die Unterscheidung, ob ein Dateifeld organisatorische oder logische Nachrichtbestandteile enthält, ist in aller Regel nicht schwierig zu treffen. Mandanten, Geschäftsbereiche, Zuständige, Systemdateien, die für ein komfortables Arbeiten der Applikation benötigt werden oder die Stempelangaben, also die Bearbeiter mit Erfassungs- und Änderungsdatum, sind Daten aus dem organisatorischen Bereich, während die Lieferdaten eines Verkaufsvorgangs zur Logik einer Applikation gehören, die Verkäufe verwalten kann, so wie Buchungsdaten zur Logik einer Finanzbuchhaltung oder Versionsangaben zur Logik einer Dokumentationsverwaltung gehören. Doch während Kunden und Teile problemlos als logisch eingestuft werden können, weil sie Externe sind, so wird eine Unterscheidung für innerbetriebliche Aufgaben schwieriger. Wo ist die Grenze zwischen den provisionsberechtigten Verkäufern und dem computerverfluchenden Personal, das die Aufträge einzugeben hat? Warum sind die Stempelangaben in den Dateien so leicht als organisatorisch einzustufen und warum ändert sich das sofort, wenn diese Angaben benutzt werden, um die geleistete Arbeit der Mitarbeiter zu kontrollieren?

Ihre Analyse beantwortet Ihnen diese Fragen automatisch, denn die ganze Mühe der Zerlegung in Objekte, in speicherbare Datenstrukturen, in Dienste und Threads dient dem einzigen Ziel, einen oder mehrere Jobs für Ihre Kunden zu erledigen, Ergebnisse zu bringen. Ob es die Verwaltung von Dokumenten ist, die Ihre Kunden für ihre technischen Handbücher brauchen und die auf CD oder Papier zum Service hinausmuss, die Buchungen der Finanzbuchhaltung, die den Eingang von Rechnungen kontrollieren muss, um sie anschließend in der Bilanz dem Finanzamt weiterzureichen, die Videothek, die die Etikette für die Cassetten bemalen soll, oder einfach eine Masse von Listen für eine Masse von Leuten, die sie kaum ansehen und trotzdem brauchen, eines hat jede Applikation gemeinsam, sie produziert Output und nur in den allerseltensten Fällen genügt den Leuten dabei die Anzeige von irgendwelchen Suchergebnissen. Nur beim Internet ist dieser Ausgang der Information schon überwiegend akzeptiert, doch selbst hier werden die Ergebnisse dann zur weiteren Verwendung oft in Druckform angeboten. Diese Ergebnisse werden über dieselben Schnittstellen herausgegeben, wie die Nachricht über Vorgänge der Außenwelt in die Applikation hineingelangen, über die Anwenderseite, über Im- und Export-Datentransfer oder über sonstige Peripheriegeräte.

Ganz analog der Zählung eingehender Wertveränderungen werden also die ausgehenden erforderlichen Schritte über die Anzahl der Dateien bis zur Ausgabe seitens Benutzern, Exporten oder Peripherie-Geräten eingegrenzt. Somit ist jede Datei für die Daten, die bereits über eine Anwenderschnittstelle verwaltbar und damit auch anzeigbar sind, in der Exit-Distanz gleich ihrer Portal-Distanz mit Null zu bewerten.

Die Anzahl der Dateien, die zwischen dem Inhalt des betrachteten Dateifelds und seiner Ausgabe an eine Schnittstelle liegen, wird als Exit-Distanz E bezeichnet. Ausgabe an eine Schnittstelle ist dabei dort, wo sein Inhalt zur Anzeige kommt oder innerhalb eines irgendwie gearteten Dokuments, in einer Exportdatei oder als Teil einer Steuerungsentscheidung für Peripheriegeräte verwendet wird. Wie bei der Portal-Distanz ist jedoch nicht erforderlich, dass der Inhalt des Feldes exakt in der gespeicherten Form dargestellt werden, es genügt, wenn der Inhalt nur in irgendeiner Form benutzt wird für eine Ausgabe. Wird ein Zahlenwert also in einer Formel verwendet, um mit anderen Faktoren zusammen ein Ergebnis zu erzielen, das ausgedruckt wird, werden Datensätze kumuliert, um überschaubare Graphiken zu erzeugen, wird ein Text in einer anderen Sprache dargeboten oder bei Identifikatoren von Komponenten-Objekte nicht der intern eindeutige Identifikator, sondern eine Aufbereitung aus objekt-beschreibenden Angaben erzeugt, so wird die Distanz zu diesen aufbereiteten Daten als Exit-Distanz des zugrunde liegenden Datenfeldes bewertet.

Im obigen Beispiel der Buchhaltungssoftware von Personen, Konten, Mehrwertsteuersätzen und journalisierter Verbuchung sollen folgende Ergebnisse gewünscht sein: alle Dateien außer dem Journal sind verwaltbar und weisen damit Anwender-Schnittstellen zu ihrer Repräsentation auf, die Personendatei ist darüber hinaus Basis von individuell gestalteten Serienbriefen, die Konten werden für die Bilanzierung benötigt, Mehrwertsteuersätze erscheinen auf allen Buchungen, die durchgeführte Buchungen landen auf den Mahnungen und die Journalbewegungen im Anhang der Steuererklärungen. Damit weisen alle Dateien für die beispielhaften Dateifelder eine Distanz von Null auf, entweder über die Anzeige oder über die Dokumente, die aus den Dateiinhalten erzeugt werden.

Wenn E die Exit-Distanz bezüglich einer Datenstruktur d ist und p die Anzahl aller betrachteten Datenstrukturen, so ist das Exitgewicht beschrieben als:

4. ged= E/p

Ein Exitgewicht von Null bedeutet also, dass der Inhalt eines Dateifeldes ganz direkt aus dieser Datenstruktur die Applikation verlässt. Höhere Exitgewichte kennzeichnen demgegenüber Dateninhalte, die weniger mit einem auszugebenden Ergebnis als mit seiner Erzeugung zu tun haben und deshalb zur Ausgabe nur über Felder anderer Dateien gelangen, zu deren Berechnung sie benötigt wurden. Beispiele sind Systemdateien, die die internen Verarbeitungsvorgänge zwischen den einzelnen Anwendern steuern, Interimsdateien, die Zwischenstände von Verarbeitungsvorgänge dokumentieren, oder Organisationsangaben wie Stempelfelder, die nur für die von der Zunft als selten bezeichneten Fehlerfälle, nicht jedoch zur Ausgabe vorgesehen sind.

Feldbezogene Eigenschaftstypisierung

Mit dem Eigengewicht und dem Profilgewicht lassen sich Eigenschaften aufgrund ihrer Aussagekraft und ihrer strukturellen Wertigkeit beschreiben.

Dateifelder mit hohem Eigengewicht und hohem Profilgewicht sind solche, die bei wenigen Werten sehr häufig in der Datenbank verwendet werden, wie Mandanten, Buchungskreise oder Geschäftsbereiche, unter denen die vorhandenen Datensätze aufgeteilt werden. Diese Felder sind Klassifikatoren für den Datensatz und gehören bei relationalen Dateisysteme meist zu dem Schlüssel der Datei, in der sie verwendet werden. Hohes Eigengewicht und niedriges Profilgewicht bedeutet wenig Werte des Dateifeldes, also geringes Verlustrisiko für die dahinter stehende Information, andererseits aber eine auf sehr wenig Dateien beschränkte Verwendung. Solche Felder sind meist Eigenschaften mit normierten Wertemengen, die überwiegend als Skalenwerte niedergelegt und den Anwendern als Auflistung zur Auswahl angeboten werden. Sie erlauben es, die Datensätze zu gruppieren und werden deshalb Akzente genannt. Niedriges Eigengewicht bei hohem Profilgewicht andererseits bedeutet hohe Wertemengen des Feldes und damit hohes Verlustrisiko der Information, aber einer maßgeblichen Bedeutung im Dateisystem. Diese Felder enthalten meist Angaben, deren Werte in eigenen Dateien identifiziert und näher beschrieben werden, wie Kunden, Teile, Dokumenten, Projekte oder Konten. Sie dienen meist der Dokumentation von Vorgängen, für die die Anwendung konzipiert wurde. Niedriges Eigengewicht und niedriges Profilgewicht schließlich sind solche Eigenschaften, die sehr viele Werte aufweisen, aber nur in wenigen Dateien benutzt werden und deren Werte oft deshalb so vielfältig sind, weil sie der freien Entscheidung der Anwender überlassen bleiben zur Beschreibung des aktuellen Objektes.

Wenn zur Bestimmung des feldbezogenen Eigenschaftstyps

5. Tf = (ge , gp )

herangezogen wird, so lässt sich folgende Definition für die vier verschiedenen endogenen Typen heranziehen:

klassifizierend = ( + , + )
akzentuierend = ( + , - )
dokumentarisch = ( - , + )
deskriptiv = ( - , - )

Aufgabenbezogene Eigenschaftstypisierung

Ein Dateifeld alleine macht jedoch nicht viel Sinn. Um die Typisierung zu vervollständigen, wird das Feld deshalb im Kontext seines Zusammenwirkens betrachtet, als Teil eines Threads, der die Anwendung durchläuft, um eine Aufgabe vollständig zu bearbeiten.

Dateifelder mit niedrigem Portalgewicht und niedrigem Exitgewicht sind solche, die ohne große Verarbeitung von der Außenwelt in das System und wieder nach draußen zurückfließen, typischerweise zur Aufzeichnung von Vorgängen vorgesehen wie der Erfassung von Auftragsdaten, die wegen der rechtlichen Wirkung als Vertragsgrundlage sofort als Beleg ausgedruckt und zurück zum Kunden versandt werden. Dateifelder mit niedrigem Portalgewicht bei höherem Exitgewicht unterliegen in ihrer Verarbeitung noch keiner großen Aufbereitung nach der Datenaufnahme, werden jedoch nicht selbst in einem Output benötigt und machen damit nur Sinn, falls sie weiterverwendet werden innerhalb der Applikation selbst wie zum Beispiel die Stempelangaben, die meist der Fehlersuche dienen sollen. Dateifelder mit höherem Portalgewicht und niedrigem Exitgewicht sind solche, deren Inhalte bereits einen längeren Weg in der Applikation hinter sich haben, bevor sie zu einem gewünschten Resultat führen, was häufig bei Auswertungen der Fall ist. Der letzte Fall, Dateifelder mit höherem Portalgewicht und höherem Exitgewicht sind demnach solche, die zwar durch einige Dateien ohne äußere Beeinflussung durchgelaufen sind, die jedoch in dieser Datei auch nicht für einen Output vorgesehen sind. Dies ist in der Regel für Systemdateien der Fall, die in vielen Applikationen die Abstimmungen der einzelnen Subsysteme regeln sollen oder Zwischenstadien von Arbeitsgängen konservieren müssen, die aufgrund ihrer Bedeutung bei der Fehlersuche oder späteren Optimierungsaufgaben abgespeichert werden, ohne dass der Inhalt dieser Dateien selbst für den Ausgang über eine der Schnittstellen vorgesehen ist. Bei der auf Sicherheit und Datenqualität bedachten Finanzbuchhaltung existieren beispielsweise oft Aufzeichnungsdateien, die Buchungsbewegungen protokollieren, nur um im Fehlerfall Kontrolldaten bequem zur Verfügung zu haben. Solche Dateien beziehen ihre Daten immer aus anderen Dateien, sie werden nie über Anwender-Schnittstellen in Augenschein genommen, weil sie nur den Datenbank-Verwaltern zur Fehlersuche dienen. Sie ähneln deshalb Wartungsgleisen für Eisenbahnwaggons, die ebenfalls nicht der Hauptaufgabe der Eisenbahnen dienen, also der Beförderung von Personen und Waren, wie es die normalen Gleise im Schienenverkehr tun, sondern der Gewährleistung der Sicherheit im Transportwesen. In Analogie zu diesen Wartungsgleisen werden diese Dateien auch als "umleitend" bezeichnet.

Wenn zur Bestimmung des aufgabenbezogenen Eigenschaftstyps bezüglich einer Datenstruktur d

6. Tad = (gpd , ged )

herangezogen wird, so lässt sich folgende Definition für die vier verschiedenen exogenen Typen heranziehen:

aufzeichnend = ( - , - )
stempelnd = ( - , + )
auswertend =( + , - )
umleitend =( + , + )

Dateitypisierung und Reibungsfaktor

Mit den normierten Werten des Relativgewichts lassen sich nun ganze Dateistrukturen feldbezogen bewerten. Da die organisatorischen Felder nur dem eigenen Arbeitsablauf dienen, ist für eine Dateitypisierung hinsichtlich ihrer Aussagekraft über den interessierenden Informationsgehalt eine Konzentration auf die logischen Felder nahe liegend. Eine weitere Einschränkung wird ersichtlich, wenn der Zweck eines feldbezogenen Dateityps darin gesehen wird, die durchschnittliche Aussagekraft abzuschätzen. Bei klassifizierenden Feldern ist diese Aussagekraft bereits bekannt, sie sind Felder mit wenig Werten und hoher Verbreitung, die damit in vielen Dateien vorkommen und deshalb für die individuelle Bewertung der Datei nicht in Frage kommen können, deskriptive Felder weisen von der eigenen Beschaffenheit her keine besondere Aussagekraft auf, ihre Relativgewichte sind demnach vernachlässigbar gering und der Mühe des Zählens einfach nicht wert. Redundanz dagegen ist differenzierter zu sehen. Solange der Identifikator der redundanten Feldern nur mit seinem eigenen Relativgewicht in eine Dateibewertung aufgenommen wird, sind die Gewichte der redundanten, akzentuierenden Felder zu berücksichtigen, da sie nicht zuletzt zur Verbesserung der Aussagekraft in eine Datenstruktur aufgenommen wurden.

Zur Beurteilung der Aussagekraft der durchschnittlichen feldbezogenen Eigenschaften wird deshalb das Relativgewicht aller logischen, dokumentarischen und akzentuierenden Felder summiert.

Damit wird das Typgewicht einer Datei definiert zu:

åT = å logische,dok+akz gr

Damit können die Dateien nach Typgewicht hinsichtlich der Frage, ob sie Gegenstand oder Arbeitsbestandteil der Organisation sind, folgendermaßen eingestuft werden:

Dokumentative =åT hoch
Deskriptive =åT niedrig

Eine weitere Typisierung neben der Aussagekraft ist die Bedeutung einer Datei im Dateienverbund als Bestandteil einer gemeinsamen Aufgabendokumentation. In Analogie zur physikalischen Erkenntnis, dass Entropie-Tendenz jegliche Ordnungsstruktur früher oder später vernichtet, ist ersichtlich, dass Systeme als Ordnungsstrukturen diese Entropie-Tendenz zumindest für ihre Lebensdauer ausgleichen müssen. Dies geschieht durch Informationsverarbeitung, also der Verwertung der Wiederholbarkeit von Vorgängen, die nicht zuletzt die zerstörerischen Wirkungen der Entropie-Tendenz ausgleichen soll. Eine Datei dient aber der Informationsverarbeitung, also hat sie und ihre Methodik auch einen ordnungserhaltenden Aspekt, bildlich gesprochen eine Art von Widerstand oder Reibung gegen die Vernichtung der eigenen Systematik. Mit den einfachen Distanzengewichten lässt sich also ein weiteres aufgabenbezogenes Gewicht, der Reibungsfaktor, in Analogie zum Relativgewicht formulieren:

7. grd = gpd * ged

Ein aufgabenbezogener Dateityp, das Reibungsgewicht, lässt sich dann analog dem Typgewicht über alle dokumentarischen und klassifzierenden, stempelnden und auswertenden Dateifelder formulieren zu:

åR = ådok+klass,stemp+auswertend grd

Eine weitere Unterscheidung von Dateien, die aus der Bedeutung der Identität für die Information herrührt, ist die, ob die Datei eine identitätsdefinierende Funktion aufweist. Identitätsdefinitionen lassen sich dabei durch ein nahe liegendes Charakteristikum erkennen: innerhalb der Dateifelder sind sie eindeutig, also einwandfrei unterscheidbar, in allen existierenden Instanzen, selbst wenn es um Millionen von Datensätzen geht. Bei relationalen Datenbanksystemen kann ein solches Attribut auch über kombinierte Schlüssel erkennbar sein. Meist sind sie darüber hinaus dokumentarisch, weisen also eine große Verwendung innerhalb des Dateisystems auf.

Definitionen: es existiert ein eindeutiges Dateifeld
Derivate: es existiert kein eindeutiges Dateifeld

Definitionen logischer Identifikatoren sind deshalb so bedeutsam, weil sie die Filterung für die von dieser Datei aufgenommenen Nachrichten bedeutet, ähnlich wie die fünf Sinne der Menschen die erfassbaren Nachrichten beschränken, die ihre Gehirne dann später aufbereiten müssen. Doch gerade dieses Beispiel zeigt, wie anhand von Erinnerungen, bekannten Modellen, und Quervergleichen, den Assoziationen, doch einiges an Information aus diesen dürftig wirkenden Nachrichtenquellen gewonnen werden kann durch Identifikation (der Eigenschaften des Senders) und Bestimmung der verursachenden Änderungen (der wiederholbaren Transformationen), deren Spuren in Ihren Datenstrukturen zu finden sein müssen, um Ihnen dieselben Möglichkeiten von Modell- und Quervergleichen zu bieten.

Aufgrund der Einschränkung des feldbezogenen Dateityps ist weiterhin noch die Unterscheidung interessant, ob eine Datei Klassifikatoren enthält. Dies deutet in der Regel auf eine großräumige Gruppierung der Daten hin, weshalb Datenstrukturen, die dieser Gruppierung nicht unterliegen, insoweit eine Sonderstellung haben, dass sie universell sind und damit nur Basis-Daten sein können wie Währungen oder Länderverzeichnisse.

Am Anfang ist das Wort - die ML-Methode

Jeder lebende Organismus muss es tun - die Ordnung im täglichen Chaos erkennen und für sich nutzbar machen. Aber nur Softwerker haben das so vollständig und exakt zustande zu bringen, dass sie es dem Werkzeug "Computer" überlassen können, die eigentliche Arbeit auch tatsächlich zu leisten. Sie müssen sicherstellen, dass Information nicht nur aufgenommen wird, sondern auch erhalten bleibt und verhindern, dass sie gar durch die eigene Verarbeitung zerstört wird. Und das alles aus nicht viel mehr als einem Haufen Zetteln, Protokollen und Gesprächen?

Doch halt - diese Zettelwirtschaft ist weitaus nützlicher, als dies auf den ersten Blick erscheinen mag, denn bereits während der Diskussionen können geübte Softwerker den späteren Umfang der Software umreißen. Bereits in diesem Stadium steckt also genügend Information, um grobe Strukturen zu erkennen. Das hat seinen Grund in der einfachen Tatsache, dass Sprache von der Natur genau aus dem Grund entwickelt wurde, um Informationen zwischen Individuen zu übertragen, das ist hier freilich nicht das Thema. Thema ist, diese bereits weitgehend aufbereitete Information detailliert aufzuschlüsseln, sodass sie als Grundkonstrukt für eine gut organisierte Informationsverarbeitung dienen kann, beispielsweise einer Software.

Dafür muss nur beachtet werden, dass Worte Symbole sind, "modulare Inhalte" sozusagen. Alle Zettel, Protokolle und Gespräche haben nur eine Aufgabe: über Worte die Aufgabe in einer Form abzubilden, dass sie als Schnittstelle zwischen menschlichen Gehirnen dienen kann. Warum also nicht jene Worte nutzen? Dies erschlägt zwei Fliegen mit einer Klappe: Einerseits wird das betrachtete Problem damit sauber genug beschrieben, um als Grobkonzept der Programmierung dienen zu können, andererseits wird es tatsächlich von allen Beteiligten verstanden, da es aus gemeinsamen Besprechungen resultierte zwischen Kunden und Softwerker und sich nicht auf das übliche Fach-Chinesisch einer einzigen Seite beschränkt. Ein Modell aus solchen Worten dient deshalb längst nicht nur der Kommunikation zwischen den Softwerkern und ihren Computern, sondern auch als Dokumentation zwischen allen beteiligten Menschen.

Zu einfach, um wahr zu sein?

Nicht, wenn man die Natur der Information berücksichtigt und einen Grundkurs in Physik besucht - dann wird klar, dass nicht nur die Kontrolle über alle möglichen Arbeitszustände erforderlich ist, sondern auch, dass es unter all den verschiedenen Möglichkeiten, Arbeitseinheiten zu kombinieren, eine "natürliche" gibt, ausgewählt durch das grundlegende Prinzip der geringsten Wirkung. Beides zusammen führt auf eine einfache Basiskonstruktion für alle Informationsverarbeitungen: das Dreieck. Wird noch berücksichtigt, das Informationsverarbeitung immer zweigeteilt in Aufnahme und Abgabe von Information ist, so ergibt sich die Form der "Fliege" - zwei an den Spitzen sich berührende Dreiecke. Die Spitze ist dabei die Stelle der Entscheidung: Im Falle der Informationsaufnahme ist es das Ergebnis der Verarbeitung, im Fall der Informationsabgabe der Anfang der auszuführenden Arbeiten.

Die ML-Methode nützt dies aus, indem sie die durch die Worte symbolisierten Elemente in eine solche Dreiecksform bringt. Abweichungen von dieser Form werden als Fehler angesehen, der zu beheben ist. Neben den Worten verlangt sie dafür nur noch einfache, aber gerichtete Paarbeziehungen zwischen jenen Worten. Diese Paare werden verkettet zu einer Gesamtstruktur und daraufhin überprüft, ob die Dreiecksform auf jeder Ebene erfüllt ist. Dazu gehört, dass ein Begriff nur einen Ausgang haben darf, aber mehrere Eingänge haben muss, möglichst so viele wie die übrigen. Warum mehrere? Weil er als Arbeitseinheit überflüssig ist, wenn er nur eine "Durchgangsstation" ist und warum gleich viele? Weil die Arbeit gleichmäßig zu verteilen den gesamten Durchfluss verbessert.

Der Rest ist Rechnerei.

Information ist nicht mehr und nicht weniger als die grundlegende physikalische Struktur, ohne die Abbildbarkeit und damit Informationsverarbeitungen nicht möglich ist, nichts weiter als die Quintessenz des abbildbaren Prozesses, der kleinste gemeinsame Nenner des formalisierbaren Dynamischen - oder für Softwerker: die Abstraktion der OO. Genau dies zeigt aber auch, dass trotz ihrer strengen Formalisierbarkeit der Rahmen sehr weitgesteckt ist.

Prinzipiell müssen zur Bestimmung der Information immer nur zwei Dimensionalitäten überprüft werden - Objekteigenschaften und Verhalten. Beides muss stabil sein.

Ein stabiles Objekt ist eine Identität, ein stabiles Verhalten eine Regel: Zusammen ergibt dies Information.

So einfach sich dies im Prinzip anhört, so schnell ufert das Ganze aus, wenn sich der Fokus auf die Einzelheiten richtet. Wie viele Eigenschaften hat das Objekt, welche sind stabil, also als Identität zu verwenden, welche sind langfristig veränderlich, welche kurzfristig, welche sind völlig uninteressant? Wie hängen diese Eigenschaften zusammen, wie verhalten sie sich, ist das Verhalten zyklisch oder zufällig?

Die bislang einzige Informationsverarbeitung, die ein offenes, komplexes Problem umfassend und schnell bearbeiten kann, ist das menschliche Gehirn. Keiner soll sich hier etwas vormachen, nichts und niemand kann daran in der nächsten Zeit etwas ändern - wobei die Betonung auf "offen" liegt. Hübsch abgekapselte, wohlbekannte und kaum veränderliche Probleme sind auch heute schon die ureigenste Domäne der Computer.

Und hier liegt unser Problem: einen offenen Teil der Realität so abzustecken, dass er sich hübsch abkapseln lässt. Natürlich funktioniert das auch methodisch und nach einem prinzipiell höchst einfachen Rezept, doch der Teufel steckt im Detail heißt es und der Details gibt es gar viele in der Realität.

"Ultra posse nemo obligatur", meinten schon die alten Römer. Niemand kann verpflichtet werden, Unmögliches zu leisten und mit unseren heutigen technischen Mitteln ist es schlicht unmöglich, die Realität halbwegs umfassend abzubilden. Aber warum die Arbeit doppelt machen, wenn der größte Teil bereits erledigt ist? Kein Mensch dieser Welt kennt doch wirklich die Realität. Jedes Gehirn arbeitet nur mit seiner Abbildung, also ist die Realität längst aufbereitet und genau das verwendet die ML-Methode, um sich das hübsch abgekapselte, wohlbekannte und möglichst wenig veränderliche Stückchen herauszuschneiden, das der Computer dann so prächtig und möglichst häufig verarbeiten kann.

Grundriss

Dreiecke sind Dreiecke, ob wir nun den auslegenden, also informations-aufnehmenden Teil der Verarbeitung betrachten oder den ausführenden, den informations-abgebenden Teil. Deshalb betrachten wir nur den sensorischen Teil, nicht den motorischen, um unsere Dreiecksformeln aus der Schulzeit verwenden zu können.

Diese Dreiecksform entstand nur aus der Notwendigkeit, Massen von Ereignissen schnell und sicher zu bearbeiten. Infinity kills information: Weil keine reale Informationsverarbeitung beliebig viel Arbeit leisten kann, musste eine arbeitsteilige Form gefunden werden, in denen mehrere "kleinere" Informationsverarbeitungen sich zusammentun zu einem größeren System. Das funktioniert aber nach dem bekannten Prinzip des "schwächsten Kettengliedes" nur so gut, wie das am meisten beanspruchte Teil funktionieren kann. Dies führt dazu, die Arbeit möglichst gleichmäßig zu verteilen.

Nach unten gibt es bei der Verteilung eine natürliche Grenze: die Null. Ist keine Arbeit da, muss auch nichts verteilt werden. Nach oben gibt es freilich mehrere Grenzen, die zu beachten sind.

Nicht jede winzigkleine Portion Arbeit muss großartig in hierarchische Systeme zerfasert wird. Es gibt hier also einen Bereich zwischen Nichtstun und Überlastung, der zentral für ein System ist. Diese "Basiszerlegung" stellt "Portionen von Arbeit" dar, die von einer einzigen Informationsverarbeitung erledigt werden können. Hier muss keine Struktur vorliegen, keine Beschränkung, keine Vorschrift, denn alles wird von einer einzigen Stelle erledigt. Ein solches "Elementarsystem" ist ein Objekt, dessen Bestandteile in Allkommunikation miteinander in Kontakt stehen. Überschreitet die Aufgabe jedoch die Kapazität eines Objektes, so muss es beginnen, mit anderen Objekten zu kommunizieren, um den gemeinsamen Job tun zu können.

Und auch hier gibt es Unterschiede: einfache Systeme oder Systeme, die als Teilsysteme wiederum zu größeren Einheiten zusammengefasst werden.

Kurze Nebenbemerkung: Alles in Allem ergibt sich als ungefähre Richtlinie für die ML-Methode zur Aufteilung von Systemen, wenn "n" die Anzahl der betrachteten Begriffe, also symbolisierten "Basisaufgaben" ist:

Objektbereich: n <= 7
2-Objekt-Bereich: 7 < n <= 13
3-7 Objekte: 13 < n <= 43
2-(Sub)System-Bereich: 44 < n <= 85
3-7 Subsysteme: 86 < n <= 295
usw. usf.

Da Subsysteme strukturell genauso gleichmäßig belastet werden sollen wie Objekte, genügt es für die ML-Methode, nur ein Subsystem zu betrachten: n <= 43

Begriffsfindung

Die Begriffsfindung ist die Eingangsschnittstelle in die Methode und die Stelle, wo die Kompetenz des menschlichen Geistes, die Realität in greifbare Abbildungselemente zu zergliedern, gefragt ist. Wenn eine Auftragserfassung konzipiert werden muss, macht es nur wenig Sinn, von Blumentöpfen oder Maschinenschrauben zu reden, selbst wenn diese möglicherweise durch den Auftrag abgehandelt werden müssen.

Doch keine Sorge! Bewundernswerterweise ist das menschliche Gehirn meist ganz gut geeignet, einen Job zu erledigen - und wenn es das tun kann, kann es ihn auch beschreiben. Sonst würde unsere Software-Industrie nicht funktionieren.

Erstes Gebot also: alle Zettel, alle Pflichtenhefte, alle Protokolle, alle Emails ordentlich zusammenfassen zu einem einzigen, verständlichen Dokument. Dieses Dokument soll wirklich zuallererst "verständlich" sein, so kurz es geht, so knapp es geht und so wenig blumenreich wie möglich. Und es soll an die Kunden weitergegeben werden, an die Programmierer, an die Tester, an alle, die irgendetwas damit zu tun haben, bis alle mit dem Kopf nicken.

Wenn alle hocherfreut sind und meinen, dass dies genau das sei, was sie sich so gedacht haben, dann ist die Hauptsache schon erledigt.

Und als hübscher Nebeneffekt werden noch alle Beteiligten verständigt und miteinander abgestimmt - also eine Sache, die doch prinzipiell immer gemacht wird?

Diese Beschreibung taugt jedoch reichlich wenig für den Computer - und hier setzt die ML-Methode ein. Alle problembezogenen Substantive der Aufgabenbeschreibung werden in einer Liste gesammelt - und so knapp wie möglich und umfassend wie nötig beschrieben, vorzugsweise unter Benutzung der Begriffe der Liste selbst.

Das war der erste Streich.

Impulsfindung

Und der zweite folgt sogleich:

Was noch gebraucht wird, sind gerichtete Paarbeziehungen. Zwischen all diesen Begriffen muss ein Zusammenhang bestehen, sonst hätte das Dokument niemals Sinn machen können. Dieser Zusammenhang, reduziert auf eine einfache Richtung zwischen zwei Begriffen, heißt Impuls.

Impulse können meist intuitiv gefunden werden, wenn folgende Fragen gestellt werden:

1) ist "Begriff I" Bestandteil von "Begriff II"? "Hat" also "Begriff II" auf irgendeine Art "Begriff I"?
2) braucht "Begriff II" Ergebnisse von "Begriff I"?
3) muss "Begriff II" "Begriff I" überprüfen?
4) folgt "Begriff II" aus einem anderen Grund auf "Begriff I"?

Für jeden Begriff muss es mindestens einen Impuls geben, den er erhält oder den er abgibt, sonst würde er gar nicht gebraucht werden. Das ist die einzige Bedingung für die Impulsfindung. Zu viele Impulse sollen es aber auch nicht zu sein. Das würde nur die notwendigen Berechnungen enorm ansteigen lassen, ohne dass mehr als die Erkenntnis herauskommt, dass sowieso alles noch einmal überprüft werden muss. Wir sind hier schließlich am allerersten Anfang des Prozesses.

Impulse können freilich sehr viel einfacher gefunden werden, wenn jeder Begriff hübsch definiert wurde, ohne auf dichterische Freiheit zurückzugreifen. Dann nämlich sind in den Definitionen die Begriffe der Begriffsliste selbst verwendet worden und alleine aus dieser Definition heraus lässt sich eine Beziehung zwischen zwei Begriffen erkennen.

Die Richtung ist nicht wirklich wichtig, das wird sich im weiteren Verlauf zeigen: Also reicht es aus, sie nach der "Richtung" Begriff => Definition anzuordnen.

Der Rest ist Rechnerei.

Szenario - Objekte und Impulse

Alle Begriffe über ihre Impulse miteinander zu verknüpfen, ist nur noch ein Formalismus, den jeder Computer rasch begreift. Im ersten Anlauf wird das Ganze wohl wie ein wirres Knäuel aussehen, doch das Schöne an einem Computer ist, dass er keine Meinung hat. Er wird das Knäuel genauso ordentlich durchrechnen wie er später die fast fertige Lösung durchrechnet.

Nach welchen Regeln er das tut?

Er bestimmt Wege: Wird ein Impuls als ein "Elementarweg" des Problems angesehen, kann er eine Länge erhalten, am besten die Eins. So lassen sich zwischen allen Begriffen der Begriffsliste Wege und damit auch Distanzen bestimmen. Ist das wirklich möglich, existiert also eine wenn auch noch so indirekte Verbindung zwischen allen Begriffen, ist das Ganze ein "Szenario", ansonsten stimmt etwas nicht.

Warum?

Weil unsere Begriffe und Impulse eine Aufgabe zu erledigen haben - und das gemeinsam. Also muss ein Begriff immer irgendwie mit dem restlichen Ganzen in Verbindung gebracht werden können.

Verzettelung:

Hier haben wir also bereits den ersten Mangel an einer solchen Konstruktion: Ist ein Begriff von einem anderen völlig isoliert und durch keinen einzigen Umweg zu erreichen, so sind es alle anderen auch, die mit ihm zusammenhängen. Damit haben wir zwei völlig getrennte Systeme - wie sollen die zusammenarbeiten können, einen Job gemeinsam erledigen können?

Also entweder haben wir hier in Wirklichkeit zwei verschiedene, ganz unabhängige Jobs vor uns - oder wir müssen unsere Kommunikation zwischen unseren Systemelementen verbessern. Kommunikation ist nichts anderes als Informationsaustausch, der "Blutkreislauf" jeder Informationsverarbeitung, sozusagen. Jeder Impuls ist Kommunikation, weil er Information von einer Stelle an die nächste weiter reicht.

Konturlosigkeit:

Noch einen weiteren Fehler kann unser System haben: Es kann so sehr mit sich selbst beschäftigt sein, dass es nichts von außen aufnimmt oder abgibt. Jeder Begriff ist also nicht nur mit jedem anderen verbunden, sondern das sogar in großen, hübschen Schleifen wie ein Kinderreigen.

Das ist zwar niedlich im Kindergarten, aber auf keinen Fall für eine Informationsverarbeitung, die etwas zu erledigen hat. Denn irgendwoher muss sie etwas zu arbeiten bekommen und irgendwohin muss sie es auch abliefern.

Kreiselnde Begriffe:

Eine Art von Mini-Konturlosigkeit sind kreiselnde Begriffe. Ihre Impulse fügen sie ebenfalls zu einem Kinderreigen zusammen und das ist schlicht Schwachsinn. Denn wenn ihre Arbeit nur dazu dient, am Schluss wieder bei ihnen selbst anzukommen, anstatt irgendwann für das Gesamtergebnis des Systems notwendig zu sein, braucht sie keiner. Und dafür fressen sie noch Arbeit auf?

Objekte - Begriffe und Impulse

Objekte sind Elementarsysteme, die nicht weiter strukturiert sind, aber sie sind mehr als ein einzelner Begriff. Ein Begriff ist eine Elementaraufgabe, aber noch ganz losgelöst, ohne irgendwelche Hinweise, wer das Erforderliche herbeizuschaffen hat oder wer das Ergebnis bekommen soll. Ein Objekt dagegen ist nicht nur Aufgabe, sondern über die Impulse auch schon über solche "Kleinigkeiten" informiert wie Herkunft und Ziel der gesamten Mühen. Ein Objekt hat demnach mehrere Elementaraufgaben zu lösen, setzt sich zusammen aus mehreren Begriffen. Die Dreiecksform erfordert freilich eine klare Grundbauweise für Objekte. Ein Objekt ist ein Begriff mit all den Impulsen, deren "Ende" er darstellt, soll heißen: Ein Objekt ist eine Sammlung von Elementaraufgaben, die zusammen benötigt werden, um ein eindeutiges Ergebnis abzugeben.

In einem Szenario, in dem mehrere Objekte zusammenarbeiten müssen, hat die gesamte Aufteilung von Elementaraufgaben in einer Form stattzufinden, sodass alle Objekte ungefähr gleich viel zu tun haben. Die gesamte Aufgabe kann dann wie eine Wellenfront durch solch eine Informationsverarbeitung hindurchschwappen und gelangt gleichzeitig zum letzten, hierarchisch am weitesten "oben" stehende Objekt, das die aufbereiteten Zwischenergebnisse zu dem endgültigen Endergebnis konzentrieren muss.

Damit ergeben sich auch sofort drei Mängel, die ein Objekt haben kann:

Dominante Begriffe:

Dominante Begriffe haben mehr als nur einen Ausgang, ihre Ergebnisse werden an mehr als nur einen anderen Begriff weitergereicht. Nur für eine einzige Stelle im ganzen System ist dies angebracht, die Entscheidung. Dort, wo sich der Charakter der Informationsverarbeitung von "aufnehmend" in "abgebend" ändert, werden die Vorzeichen umgekehrt. Eine Entscheidung soll nicht nur von möglichst vielen Eingaben mitbestimmt werden, sondern anschließend so viel als möglich Wirkung zeigen. Solange aber das Ergebnis nicht eindeutig bestimmt ist, das die jeweilige Situation verlangt, solange muss gebündelt und fokussiert werden. Begriffe, die ihr Ergebnis an mehrere Stellen weiterreichen, fokussieren aber nicht, sie zerteilen, zerfasern, schaffen Wirbel und Aufspaltung, wo gleichmäßiger Fluss viel effektiver wäre.

Klaffende Begriffe:

Das sind die "armen Schweine" des Szenarios. Sie erhalten mehr Elementaraufgaben als der Durchschnitt der anderen, sie sind damit im Durchschnitt länger beschäftigt als die anderen - und während deren "Wellenfront" an Ergebnissen weitergereicht werden, rotieren sie immer noch. Ihnen muss Arbeit abgenommen werden.

Unentschiedene Begriffe:

Unentschiedene Begriffe sind der Ausgleich zu den klaffenden Begriffen, sie haben zuwenig zu tun. Nur ein einziges Ergebnis einer vorarbeitenden Schicht müssen sie veredeln, mehr nicht. Dann kann ihr Job auch mit anderen zusammengefasst werden und von einem "richtigen" Objekt erledigt werden.

Lösungsansätze

Aus den Mängeln selbst ergeben sich schon die Lösungen. Bei der Verzettelung muss geprüft werden, ob es Verbindungen gibt, die bisher übersehen wurden oder ob tatsächlich zwei ganz verschiedene Aufgabenbereiche vorliegen. Prüfen heißt in unserem Fall aber einfach, sich das Dokument ansehen, vielleicht noch bei Leuten nachfragen, die Situation noch einmal gründlich überdenken - das kann unser Computer noch nicht.

Auch das Problem der Konturlosigkeit kann eine Frage sein, die nur Menschen lösen können und zwar dann, wenn das System so klein ist, dass nicht genügend zu berechnen ist, um etwas bewerten zu können.

Ansonsten aber ist die Forderung nach der Dreiecksform ausreichend, Lösungen vorzuschlagen. Es liegen schließlich immer irgendwelche Wege vor und wenn nicht wirklich alle im Kreis laufen, gibt es auch immer Begriffe, die sich in der Nähe der Grenzen befinden -wo Wege sind, können schließlich auch Distanzen gemessen werden und dann lässt sich auch "nah" oder "fern" genau bestimmen.

Kreiselnde Begriffe sind auch recht leicht zu finden, denn ihr Ergebnis muss auf einen Weg führen, der am Ende wieder bei ihnen ankommt. Hier muss irgendwo der Ring zerschnitten werden. Das geschieht am besten durch einfaches Umdrehen eines Impulses. Was das heißt? Dass die Beziehung erhalten bleibt, die Informationen in sozusagen der gleichen Menge verarbeitet werden, dass aber der Begriff, der bisher das Ergebnis des anderen weiter nutzte, nun sein vorläufiges Ergebnis an diesen anderen Begriff weitergibt, sodass der das eigentliche Ergebnis ihrer gemeinsamen Arbeit abliefern muss.

Dominante Begriffe und klaffende Begriffe werden zuerst daraufhin untersucht, ob überflüssige Kommunikation besteht, ob sie also Begriffe miteinander verbinden, soll heißen Aufgaben erledigen, die an anderer Stelle des Systems längst bearbeitet werden. Ist dies nicht der Fall, werden sie auch über Impuls-Umkehr von ihren Mängeln befreit. Dominante Begriffe werden also ihrer "schädlichen" Abflüsse dadurch entledigt, dass sie nicht mehr nur vorläufige Ergebnisse abliefern, sondern sie so aufbereiten, dass sie an eine einzige Stelle abgegeben werden können, klaffende Begriffe müssen nicht mehr die Aufbereitung selbst tun, sondern erhalten besser vorgefertigte Lösungen.

Der letzte Fall ist der der unentschiedenen Begriffe. Sie werden einem Objekt einfach untergeordnet, müssen nicht das Gesamtkonstrukt verwischen durch ihre Minderauslastung. Wozu soll das gut sein? Das bisschen Arbeit können sie meist rasch erledigen, doch was nützt das? Die anderen, höher ausgelasteten Elemente sind noch längst nicht fertig, der gesamte Durchfluss ist dadurch keineswegs verbessert worden. Also weg damit!

All diese Lösungsvorschläge können aus der Dreiecksform berechnet werden, vom Computer abgearbeitet werden und das geschieht solange, bis die Dreiecksform eben nichts mehr hergibt.

Das kann einige Ursachen haben - die beste davon ist die Lösung, das kompakt konstruierte Ergebnis, das die gesamte gewünschte Aufgabe erledigen kann.

Abschluss

Das ist aber leider noch nicht der Abschluss, denn der Computer denkt nicht weiter nach, er rechnet nur. Mit der Dreiecksform kann die optimale Lösung gefunden werden - für die bisherige Konstellation.

Aber ob diese Konstellation vollständig ist, ob sie wirklich in sich schlüssig ist und genau das beschreibt, was das System letztendlich leisten soll: Das ist damit nicht wirklich geklärt.

Hier muss also das menschliche Gehirn wieder einschreiten - es muss prüfen, ob jedes Objekt, das der Computer gefunden hat, wirklich Sinn macht - es muss die Worte wieder als Symbole sehen für tatsächliche Inhalte, für reale Aufgaben.

Gibt es hier noch Widersprüche, muss dieses menschliche Gehirn die Korrekturen durchführen. Dabei genügt es tatsächlich, immer nur direkte Beziehungen zwischen zwei Begriffen zu betrachten. Eine einfache Umordnung, vielleicht sogar nur mal zum Testen, rechnet der Computer schließlich genauso fleißig durch wie eine ganz ernsthaft geplante Konstruktion.

Und sein Ergebnis sagt einiges aus: Berechnet er einen Wert, der unter dem optimalen liegt, so heißt dies nämlich, dass das System viel zu verknüpft ist, dass es also Informationen bewegt, Arbeit leistet, die nicht nötig ist. Umgekehrt weist ein Wert über dem optimalen darauf hin, dass zu wenig Kommunikation vorliegt, dass also mehr Informationsaustausch zwischen den Systemelementen wünschenswert wäre.

Für ein menschliches Gehirn ist das meist ein weitaus wertvollerer Hinweis, als sich dies so blass und nackt anhören mag. Widersprüche zu erkennen, sind sein Spezialgebiet.

Deshalb ist der Abschluss erst dann erreicht, wenn dieses Gehirn keinen Widerspruch mehr signalisiert, ansonsten muss das System umgeordnet und neu gerechnet werden, bis es zufrieden ist.

Nihil tam difficile est, quin quaerendo investigari possit.

3) Die weitreichenden Aspekte der Information

Kurzbeschreibung

Information hat immer etwas mit Identitäten zu tun. Informationsverarbeitung behandelt die Definition, Speicherung, Übertragung und Wiedererkennung von Identitäten. Die zentrale Frage ist also, wie es möglich ist, durch beliebige Entwicklungen auf die Ursachen dahinter schließen zu können. Dies bedeutet unter anderem auch, dass die weiterentwickelte Informationsmathematik die Basis für Modellbildung und Prognose sein wird; die Grundlage von Problem- und Situationsbehandlung und auch ein Hilfsmittel der Nachrichtenanalyse.

Die Informationsmathematik ist die Formalisierung eines Ansatzes, dessen Ausgangspunkt Stabilität und Wechsel sind, Unveränderlichkeit und Veränderlichkeit. Dieser Ausgangspunkt wird konkretisiert durch eine beliebige, aber eindeutige Relation zwischen Elementen zweier Mengen, deren erstes Element unveränderlich ist, während das zweite durch ein anderes Element der zweiten Menge ersetzt werden kann. Das unveränderliche Element wird dabei als "Eigenschaft" definiert, das veränderliche als "Wert" und der Austausch der Werte als Änderung oder "Transformation". Sie untersucht Folgerungen aus diesem Ansatz und stellt die Frage, was sich selbst bei weitgehender Unkenntnis von Eigenschaft und Transformation alleine aus den Werten und ihrem Verhalten ableiten lässt.

Der zentrale Begriff neben der Änderung der Eigenschaft ist demnach die Werteveränderung, die "Translation", die durch die Transformationen erreicht werden. Es erweist sich, dass bei einer einzigen Eigenschaft die Verfolgung der einzelnen Werte (die Translation) so eng an die Transformation gebunden ist, dass die Translation wie ein Schatten oder ein Spiegelbild zur Beschreibung der Transformation geeignet ist.

Doch Werte sind nicht an Eigenschaften gebunden, sie werden nur zugeordnet durch Transformationen. Sie sind damit immer wesentlich durch Eigenschaft und Transformation, durch das unveränderliche Element und die Veränderung bestimmt, somit ist auch der Begriff des Wertebereichs als durch Transformationen der Eigenschaft zuordenbare Veränderliche keine unverrückbar feststehende Menge.

Wird die Betrachtung des Problems dann auf mehrere Eigenschaften erweitert, so ist durch die generelle Definition möglich, dass dasselbe veränderliche Element zwei unveränderlichen Elementen zugeordnet werden kann. Damit kann aber auch eine Wertveränderung aus den Transformationen beider Unveränderlicher stammen und sagt somit ohne weitere Kenntnis sehr viel weniger über die erzeugende Transformation aus. Liegen somit ganze Ketten vor, so ist alleine aus der Translation, der Bahn der Werte, weder ein Rückschluss auf die beteiligten Eigenschaften noch die erzeugenden Transformationen möglich.

Die Kernfrage ist demnach, unter welchen Umständen von Translationen trotzdem auf Eigenschaften und Transformationen zurückgeschlossen werden kann (Platos Problem).

Vergleichen Sie hierzu auch den Aufsatz "Informationsgesellschaft und Information".

Einleitung

Die Welt und ihre Ereignisse sind Gegenstand der menschlichen Gedanken und Vorstellungen, seit es menschliche Gedanken und Vorstellungen gibt. Die Fragen nach Herkunft und Ziel, nach Wozu und Warum und die Methode der Abstraktion, dieses Problem anzupacken, mögen vielleicht das einzig wirklich Besondere an der biologischen Spezies Homo Sapiens sein.

Ideen, die Objekte der Vorstellung, mit denen eine ganze innere Welt von Ereignissen erbaut wird, bilden dabei das Grundgerüst dessen, was menschliches Bewusstsein genannt wird, die Möglichkeit, vor einem inneren Auge Abläufe zu erzeugen, die einmal waren, erst sein werden oder niemals möglich sind. Mit Ideen lassen sich Geschichten erzählen, Objekte beschreiben, Sprachen erzeugen, Informationen übertragen. Aber was eine Idee selbst ist, ist weit schwerer zu benennen, als die Abbilder der Realität selbst, die im menschlichen Geist durch Ideen dargestellt werden.

Und doch sind Ideen das, was gerade die Menschheit zur Perfektion entwickelt hat. Nicht nur Ideen für den täglichen Hausgebrauch, zum Futtererwerb, zum geschickten Öffnen von Nüssen oder zur Fortpflanzung, sondern weit darüber hinaus Ideen von Sternen und Mondbewegungen, von Magnetfeldern und Göttern, vom Urknall bis zur Idee der Idee kann der menschliche Geist Objekte seiner Vorstellung bilden, bei denen häufig genug kein Bezug zur Welt erkennbar ist, wie sie anderen Menschen erscheint.

Andererseits haben Ideen ihren Ursprung wie alles andere in dieser Welt auch. Selbst in der fantasievollsten Vorstellung läßt sich ein Faden finden, der bis zur Realität hinüberreicht, aus der sie geboren wurde. Ideen erwachsen aus der Realität wie Schneeflocken aus kalten, feuchten Luftschichten, nach einem ganz ähnlichen Vorgehen. Aus der Vielfalt von Dingen und Ereignissen erstellt der menschliche Geist ein Gerüst aus Abstraktion, ein Modell, das er wie ein eigenes Objekt drehen und wenden kann, das er zum Laufen bringen und Anhalten kann, wie es ihm beliebt, das er verändern, anderen eigenen Ideen oder fremder Realität anpassen kann. Religionen und Wissenschaften folgen diesem Prinzip, die einen mehr eigenen Ideen, die anderen mehr fremden Realitäten folgend, doch das Verfahren ist dasselbe.

So erweist sich sowohl Platos Ansicht von den Ideen als Schatten der realen Welt, als auch die Vorstellung von Roger Penrose von einer eigenen Welt der mathematischen Ideen als Selbstverständlichkeit der Arbeitsweise des Gehirns: Modelle von der Welt zu formen, in der der Organismus des Gehirns überleben möchte, um sich besser darin zurechtzufinden.

Weil jeder Schritt zuerst gefahrlos in der geistigen Welt getan werden kann.

Die Macht der Information

Das Nützliche an diesem Modell im Kopf ist also die Simulation von Vorgängen, um die Zukunft wohlmeinend für sich zu gestalten. Wer in den nördlichen Breiten nicht für Wintervorrat sorgt, verhungert, wer achtlos eine vielbefahrene Straße überquert, lebt nicht lange.

Um aber Vorgänge zu simulieren, benötigt man Kenntnis über Start und Verlauf des Ereignisses, das einen irgendwie beschäftigt, man muss wissen, wie es anfängt und wie es weitergeht, wo es hinführen kann, wo es aufhört. Man braucht "Informationen", aber nicht einfach so, sondern immer "über" etwas. Informationen über etwas heißt also, sowohl das Etwas zu kennen als auch sein Gesicht und sein Verhalten, um abschätzen zu können, wann es wo wie die Welt beeinflußt.

Doch interessanterweise kann das Etwas auch das eigene Ich sein. Und dieses eigene Ich hat den unschätzbaren Vorteil, dem eigenen Zugriff unausweichlich zur Verfügung zu stehen.

Wie erfolgreich die Kenntnis des eigenen Ichs für die Organismen dieser Erde waren, beweist der überwältigende Erfolg der Gene, denn sie sind nichts weiter als die Kenntnis über den eigenen Aufbau. In der Frühzeit der Entwicklung, als das Leben noch dem örtlichen Zufall chemischer Elemente überlassen war, muss es viele komplexe Moleküle gegeben haben, die aus der Ursuppe entstanden und wieder vergingen. In Massen von Anzahlen, Zusammensetzung und Formen bildeten sie die Basis für die Zufälligkeiten, aus denen in sich abgeschlossene, von der Umwelt deutlich isolierbare Moleküle entstehen konnten, die dann wiederum die Basis für die diejenigen bildeten, die nach einer Beschädigung sogar imstande waren, benötigte Chemie aus der Umwelt aufzutanken, zu integrieren, das Untaugliche zu entfernen und die alte Form wiederzugewinnen. Bis heute sind die Chaperon-Moleküle, die "Anstandsdamen" der Zelle, ein Hinweis darauf, wie das frühe Leben sich formierte, weil sie beschädigte Arbeitsmoleküle der Zelle zu ihrer Funktionsfähigkeit zurückführen können, indem sie ihnen zur alten Form und Gestalt verhelfen. Sie müssen also das Wissen um die richtige, sprich für die Zelle nützliche Form in irgendeiner Weise beherbergen.

Wenn in einer Ursuppe von Chemie und elektrischen Reizen, wie sie in der Frühzeit der Erde als Geburtsstätte des Lebens vermutet wird, dann solche Moleküle auftauchen, die sich nicht nur abschotten, also gegen zerstörerische Reize schützen, als auch bei Schädigung reparieren können, ist es leicht zu verstehen, dass diese Moleküle beständiger als andere sind. Während andere durch vorüberziehende Chemikalen wieder aufgelöst, durch elektrische Reize wieder vernichtet werden, sind diese Selbstreparierer in der Lage, lange Zeit in derselben Gestalt und Zusammensetzung zu überdauern. Doch dazu muss sowohl Gestalt als auch Zusammensetzung bekannt sein, es muss eine Art Modell der eigenen Konfiguration geben, das dazu dient, Beschädigtes auszusondern und Passendes von Außen einzugliedern. Dieses Wissen der frühen Selbstreparierer war jedoch direkt an die eigene Chemie gebunden, an die Atome und einfachen Moleküle, aus denen die komplexen Moleküle sich in langen Ketten und verschiedenen Formen formten, zusammengehalten von ihren eigenen elektrischen Feldern.

Der nächste Schritt erscheint dann fast zwangsläufig. Ein guter Selbstreparierer kann noch große Schäden ausgleichen, also auch große Verluste an eigenem Material, wie ein Regenwurm, der auseinandergeschnitten sich dennoch wieder restaurieren kann, diesmal aber in zwei Exemplaren. So ist ein guter Selbstreparier wohl die Ausgangsbasis für Teilungsprozesse, die im Ergebnis zwei derselben Art haben. Und auch hier ist schnell zu sehen, dass in einem Umfeld zufälliger Kombinationen, zufälliger Ressourcen und zufälliger Schadensursachen gute Selbstreparierer sich nicht nur lange Zeit behaupten können, sondern sich aufgrund dieser Fähigkeit sogar vermehren werden.

Je besser also ein Selbstreparierer seine eigene Form als Information auf irgendeine Art und Weise speichern konnte, umso größer war seine evolutionäre Chance, in der Ursuppe zu verbleiben und damit die Ressourcen schon alleine durch seine Gegenwart zu binden, anstatt sie zufälligen Neukombinationen zur Verwendung zu überlassen.

Doch nicht nur die Information über die eigene Bauart, sondern auch über die Umgebung war förderlich. War ein Molekül aufgrund seiner Gestalt oder Zusammensetzung in der Lage, sich nicht nur gegen Gefahren abzuschotten, sondern auch verwendbare Ressourcen zu erkennen, dann war die Voraussetzung geschaffen, dass Gestaltänderungen, Öffnungen nach außen nicht einer Gefahr verhalfen, das Molekül zu vernichten, sondern einer Ressource, das Molekül zu verstärken. Solche Konfigurationen von Atomen waren damit im Reich des Zufalls bevorzugt, sich an den Ressourcen zu nähren, weil sie nicht immer von Anfang an beginnen mussten.

In der Frühzeit des Lebens muss es viele verschiedene Selbstreparierer gegeben haben, die die Kenntnis über die eigene, zum Selbsterhalt nützliche Konfiguration so gut speichern konnten, dass sie sich zu gigantischen Riesenmolekülvölkern entwickelten. Unsere eigene Zelle ist ein chemisches Meisterwerk von solcher Präzision, dass es nicht ohne viele evolutionäre Zwischenschritte abgegangen sein kann. Das ist heute noch deutlich in der Existenz verschiedenen Zellbausteine dokumentiert, die von Biologen als einfache Vorstufen unserer Zelle angesehen werden.

Irgendwann im Verlauf dieser Selbstreparierer-Evolution gelang es dann Riesenmolekülen, einen Weg zu finden, die eigene Konfiguration als richtiges Abbild zu separieren und damit alle Reparatur- und Vermehrungsvorgänge wie von einer Blaupause abkopieren zu können. Alleine dieser Weg senkte die Schadensanfälligkeit schon, da die Kopiervorlage als eigenständiger Bestandteil leichter zu schützen sind als die große Gesamtheit. Somit konnte die alte Ordnung sogar erhalten bleiben, selbst wenn wesentliche Teile des Moleküls vernichtet waren. Die Chaperon-Moleküle könnten ein Hinweis darauf sein, dass die frühen Blaupausen des Lebens analog funktionierten, doch der nächste Schritt der Zellen, die Informationen zu separieren, war digital, das ist uns bis heute im eigenen Leib überliefert. Diese digitale Information lieferte damit eine so hohe Genauigkeit in der Bewahrung der Kenntnis über die eigene Überlebensfähigkeit, über all die Arten und Weisen, die eigene Gestalt in einem uneinheitlichen Umfeld zu bewahren, dass das weitere Leben fast vollständig darauf basierte. Der Weg, die eigene Konfiguration digital in Genen zu speichern und diese Information geschickt zu kopieren, freilich flexibel genug, um geänderte Konfigurationen an geänderte Umgebungen zu erlauben, war so erfolgreich, dass die erste Zelle, die ihn beschritt, die ganze Erde mit Leben überzogen hat.

Diese Informationsspeicherung erlaubte nachweisbar immer komplexere Konfigurationen, doch schon bei den einfachsten Lebensformen ist das alte Problem einer veränderlichen Umwelt die Voraussetzung für den Informationsbedarf gewesen. Was für die einfachen, chemisch orientierten Lebewesen völlig ausreichend war, erwies sich im Laufe der Entwicklung von komplexen, gar weiträumig mobilen Organismen als zu starr, zu unflexibel. Mobile Organismen sind durch die eigene, schnelle Ortsveränderung in weit höherem Maße einer veränderlichen Umwelt ausgesetzt als Ortsgebundene. Dies hat einleuchtende Vorzüge, an benötigte Ressourcen zu gelangen, aber weist auch ein erhebliches Risiko auf, in einen Gefahrenbereich hineinzulaufen. Information ist also wiederum das nützlichste Mittel bei dem Versuch, am Leben zu bleiben und das möglichst lange.

Mobile Organismen waren also viel mehr auf äußere Reize angewiesen als Ortsgebundene. Diese Aufnahme musste aber gesteuert werden und sie musste steuern. Weder war jeglicher Reiz von Bedeutung für den Organismus, noch war jeder Reiz verständlich. Für jede in der Umwelt übliche Erscheinung musste also ein Sensor gefunden werden, eine Möglichkeit, das eingehende Signal zu interpretieren und vor allem, es zu bewerten. Die Information über die Außenwelt musste selektiert und verarbeitet werden. Es musste definiert werden, was interessant war, weil nützlich oder gefährlich, wie es sich bemerkbar machte, wie es übertragen wurde und wie daraus wieder die Ursprungsinformation hergestellt werden konnte. Diese Ursprungsinformation, ausgesucht nach Nützlichkeit oder Gefährlichkeit, musste daraufhin in eine entsprechende Reaktion des Organismus umgesetzt werden, weil das der einzige Grund überhaupt zu der Entwicklung dieser Fähigkeit war.

Parallel zur hinsichtlich des Organismus statischen Konfigurationsspeicherung der Gene wurde also ein zweites Informationssystem benötigt, ein dynamisches, das den Informationsbedarf über die aktuelle Situation deckte. Mit der Gehirnentwicklung wurde dieses Steuerungssystem immer aufwändiger, vermochte immer mehr Informationen aufzunehmen, zu bewerten und die Reaktion des Organismus danach auszurichten.

Doch wie uns jeder Biologie-Unterricht beweist, war dies noch nicht der letzte Schritt der Entwicklung.

Denn je komplexer der Organismus war, umso gefährlicher wurden Veränderungen an der Konfigurationsspeicherung. Ein Organismus ist ein System von Milliarden einzelner Zellen, keine alleine lebensfähig, alle mit verschiedenen Aufgaben in höchst unterschiedlichen Aufgabenbereichen. Optimiert im Laufe von Millionen Jahren durch die Methoden der Evolution, bedeutet jede Änderung eine Gefahr zur Verschlechterung, die nur in Kauf genommen werden durfte, wenn die Umgebung sich höchst feindlich entwickelte und somit jegliches Risiko sowieso gegen die Organismen dieser Art stand.

Fast zwangsläufig entwickelte sich der Informationssensor der Organismen auch zur Informationsspeicherung. Der Charakter dieser Speicherung war jedoch grundsätzlich verschieden von der statischen Konfigurationskopie, nicht nur in seiner Herkunft aktueller Informationsgewinnung und -verwertung, sondern auch in der Zielsetzung. Langfristige Umgebungseinflüsse konnten immer noch günstig statisch und damit auf einer niederen, leicht kopierbaren Ebene vermerkt werden, doch kurzfristige Einflüsse waren damit nicht erfolgreich verwertbar. Abgesehen davon, dass Generfahrung erst bei den nächsten Generationen zum Tragen kommt, waren die Einflüsse dort möglicherweise wieder geändert und hätten somit nicht die erwünschte positive Wirkung, sondern möglicherweise gar eine Behinderung bewirkt.

Lernen war angesagt. Erinnerungen, aus der aktuellen Informationsverarbeitung gewonnen, Abbilder nicht mehr nur von nützlichen Konfigurationen, sondern von erfolgreich bewältigten Ereignissen, von ganzen Abläufen, wurden vom Gehirn erfunden, zuerst analog, wie seinerseits bei den Konfigurationen, dann jedoch immer präziser und vollständiger.

Interessanterweise hat das Gehirn bis heute jedoch auf eine digitale Speicherung verzichtet, was einen deutlichen Hinweis auf die Natur der Information gibt, die das Gehirn so meisterhaft zu beherrschen lernte. Aber es verzichtete nicht auf eine vergleichbare Genauigkeit, es modularisierte Erfahrungen.

Die bisher letzte Stufe in der bisherigen Entwicklung der Informationsverarbeitung des Lebens stellt der Homo Sapiens dar, dokumentiert in seiner erstaunlich raschen Gehirnentwicklung. Allein dies wäre Beweis genug für die Überlebenstauglichkeit von Informationsbeherrschung.

Zwei Arten von Erinnerungen hatten dem Leben also bisher gedient: die statische Konfigurationskopie der Rasse und die dynamische Erfahrung des Individuums.

Diese letzte Stufe ist dabei in ihrer Bedeutung jederzeit mit der Erfindung der Genetik vergleichbar und beweist die evolutionär überragende Stellung der Informationsbeherrschung für das Leben, ja das Leben kann geradezu nach dem Grad seiner Informationsbeherrschung katalogisiert werden.

Das menschliche Gehirn separierte die Erfahrung des Individuums. Wie die ersten Moleküle lernten, das Wissen um die eigene Konfiguration abzukapseln, wie das Individuum lernte, die Erinnerung vom erzeugenden Vorgang abzutrennen und aufzubewahren, so lernte das Hirn, die Erinnerung und damit das Wissen des Individuums vom Individuum zu trennen - es erfand die Sprache.

Und wie die erste Zelle erfolgreich den Globus bevölkerte mit ihrer Erfindung des exakten Informationstransfers, so überzogen die sprechenden Individueen unaufhaltsam die Oberfläche der Erde.

Das Gesicht der Information

Doch unabhängig davon, wie eng Leben mit der Beherrschung der Information aus seiner Umwelt zusammenhängt, bleibt die Frage nach Art und Umfang von Information vage und vieldeutig. Jedes Leben sammelt Informationen, jeder Mensch sammelt Informationen und doch wird Information meist nicht eigenständig definiert, sondern über den Begriff der Nachricht und ihrer Versendung. Informationen können einfacher Natur sein, Meßwerte, die von irgendwelchen Geräten abzulesen sind, oder vage und nebulös wie Gerüchte, die über die Kollegen verbreitet werden, sie können bedeutungslos sein oder den Lauf der Geschichte ändern.

Das Gesicht der Information ist mannigfaltig und wechselhaft und je genauer versucht wird, den Schleier zu lüften, umso größer scheint der Widerspruch zu der herrschenden Meinung in Wissenschaft und Technik zu werden. Die moderne Industrie beschreibt Informationsverarbeitung über elektronisch speicherbare Medien und Daten, die Mathematik beschäftigt sich mit statistischen Methoden im Zusammenhang mit Information, die Physik spricht von der Entropie als Mittelwert von Information. Doch trotz aller modernen Technik konnten sich diese drei Themenbereiche nicht auf einen gemeinsamen Begriff einigen.

Sie alle beschäftigen sich mit Daten, mit stationären Elementen. Die informationsverarbeitende Industrie speichert sie in Binärform ab, die über Programme benutzt und weitergereicht werden können, die Mathematik konzentriert sich auf Mengen irgendwelcher Art und untersucht Beziehungen zwischen deren Elementen, wenn die Elemente überhaupt nicht interessieren, jedoch ihre von der Menge abhängigen gemeinsamen Eigenschaften und die Physik untersucht Teilchen jeder Art und ihre Auswirkungen oder Reaktionen.

Sie alle betreiben Informationskunde, doch nur die Techniker der neuen Industrie bekennen sich dazu, verkleiden es jedoch in Begriffe wie Nachricht und Versendung.

Warum?

Mathematik und Physik nennen sich Naturwissenschaften, sie gehorchen dem mephistophelischen Prinzip von Zweifel und Überprüfung, sie vertrauen nur auf das Experiment und die Nachvollziehbarkeit, die Technik als Konsequenz der Naturwissenschaften war in ihrer Umsetzung dieses höchst erfolgreichen Denkansatzes so überwältigend, daß sie die Geschichte des ganzen Erdballs veränderte mit immer leistungsfähigeren Maschinen und Systemen.

Doch ihnen allen eigen ist eine innere Stabilität. Die mathematischen Mengen erlauben die differenzierteste Ordnung, die Physik die exotischsten Wechselwirkungen und Identitäten, die Technik die weltumspannende Kommunikation, doch ohne jede Veränderung, auch in der Physik nicht. Die Mengen existieren eben mit diesen Eigenschaften oder sie existieren ohne sie, die Wechselwirkungen der Physik sind (meistens) experimentell wiederholbar, damit müssen sie unabhängig von der äußeren Umgebung, also auch einem bestimmten Zeitpunkt, sein oder zumindest gemacht werden können. Ein Versuchskaninchen ändert vielleicht seine Farbe, doch die Versuchsanordnung selbst erlaubt eben nur die Veränderung des Kaninchens zur selben Farbe hin. Die Technik gar nennt es schlicht Fehler, wenn sich Änderungen in ihrer Funktionalität einschleichen, die nicht erst teuer bezahlt wurden. Nur die Stabilität sichert die Beweisbarkeit der Mathematik, die Wiederholbarkeit der Physik oder die Machbarkeit der Technik.

Andererseits ist Information und Leben nur aus der Veränderung erstanden, ein Problem, mit dem die Physik verzweifelt kämpft, denn trotz immer teuerer Versuche läßt sich nicht in der gewünschten Endgültigkeit beweisen, daß die Zeit, die Existenz von Instabilität, nicht existiert, nicht nur ein Denkfehler biologischer Maschinen ist, über der der Geist des Menschen so erhaben schwebt, daß er sich davon loslösen kann und die Zeitlosigkeit gegen jegliche Erfahrung erkennen kann.

Die menschliche Wissenschaft scheint mit ihrer konfigurationsgemäßen Informationsverarbeitung den frühen Zellen vergleichbar zu sein, die das eigene Verhalten noch über die Gestalt, die in der Materie enthaltene Gesetzmäßigkeit steuern mußten, jedoch nicht direkt auf das Geschehen einwirken konnte.

Zu vage, zu ungenau, ja zu unzuverlässig ist die Umgebung, um daraus zuverlässiges Wissen beziehen zu können. Was heute hier ist, kann morgen woanders sein, was heute existiert, kann morgen verschwunden sein, was heute wichtig ist, kann morgen vergessen sein. Wer kann darauf basierend die Zukunft für sich wohlmeinend gestalten? War das nicht der einzige Vorteil, den Informationen überhaupt haben?

Wenn also verläßliche, nachweisbare Ergebnisse aus Informationsverwendung ableitbar sein sollen, dann kann dies unmöglich auf veränderlichen Erscheinungen basieren. Dies ist die vorherrschende Überzeugung von Wissenschaft und Technik.

Das Gesicht der Information ist mannigfaltig und wechselhaft. Zu mannigfaltig, zu wechselhaft.

Zu unzuverlässig.

Aber nicht für das Gehirn. Das menschliche Gehirn kann in Unzuverlässigkeiten existieren, aus Unzuverlässigkeiten mathematische und physikalische Modelle bilden, die dann in zuverlässigen Technologien genutzt werden können, weil es lernte, die Gesichter der Information zu unterscheiden, selbst wenn sie keinerlei Ähnlichkeiten mehr mit alten Fotos haben oder sogar Grimassen schneiden.

Es muß also sehr wohl Zuverlässigkeit im Chaos des Veränderlichen existieren, ohne daß die Veränderlichkeit zur stabilen Mechanik reduziert werden muß.

Dies ist die grundlegendste Überzeugung der Informationsmathematik. Sie stellt die Frage, welche Konsequenzen Veränderlichkeit hat. Dazu macht sie den Ansatz einer Verbindung von Stabilem und Veränderlichen und damit notwendig der Existenz der Veränderung. Die Bezeichnungen für diese Grundlagen sind alltäglich, das Stabile wird Eigenschaft genannt, das Veränderliche Wert und die verändernde Instanz Transformation. Für das Stabile und das Veränderliche werden die flexiblen Begriffe der Mathematik der Mengen und Mengenelemente benutzt, doch die Transformation ist ihrer ganzen Natur nach eine Unbekannte, die nur nach höchst generellen Eigenschaften eingeteilt werden kann.

Dies erinnert an die Vorgehensweise der Mathematik, ihre Mengenelemente völlig anonym zu betrachten, nur die gemeinsame Eigenschaften für die Ordnung auf der Menge und zwischen Mengen zu berücksichtigen.

Im Gegensatz dazu sind Eigenschaften und Werte bestimmbare Mengenelemente. Die Bedeutung der Eigenschaften liegt dabei darin, die Basis für Transformationen zu bilden, die Bedeutung der Werte liegt darin, das Abbild der Transformation zu sein, sie sind die Nachricht über die Transformation, die stattgefunden hat.

Dies erinnert an die Vorgehensweise der Physik. Sie separiert Eigenschaften mit der schönen Eigenschaft, klare und mathematisch formulierbare Transformationen, also nachvollziehbare Transformationen, aufzuweisen und bestimmt per Experiment die verschiedenen Werte, die diesen Transformationen folgen: den Wertebereich von Eigenschaft und Transformation.

Die Datenspeicherung der Informationstechnologie ihrerseits sammelt die Werte von Eigenschaften und Transformationen, die sie im Regelfall höchst wenig interessiert.

Deswegen konnten sich trotz aller modernen Technik diese drei Themenbereiche nicht auf einen gemeinsamen Begriff einigen.

Denn der Begriff der Information beinhaltet Eigenschaft, Wert und Veränderung.

Information dreht sich immer um Identitäten, die Eigenschaftsträger, die erkannt werden müssen, die dann abgebildet und damit speicherbar und übertragbar gemacht werden und die aus diesen Abbildungen wieder gewonnen werden können, nicht zuletzt, um ihre Verhalten zu prognostizieren. Alltägliche Erfahrung im Umgang mit der Information hat dabei das gleiche Muster wie die hochtechnisierte wissenschaftliche oder kommerzielle Form.

Platos Problem

Betrachtet man sich eine Eigenschaft mit ihrem Wert, die "Zuordnung", als existent, wenn beide Elemente existieren und in einer eindeutigen, aber wertemäßig wechselhaften Beziehung von Eigenschaft zu Wert stehen, dann kann man alleine aus der Existenz dieser Wechselhaftigkeit eine sonst völlig unbestimmte Größe formulieren, die "Transformation", über die außer ihrer puren Existenz nichts bekannt ist und selbst diese Existenz ist nur über Dritte, also Eigenschaft und Anfangs- bzw. Endwert ersichtlich. Da die Eigenschaft das Unveränderliche ist, muß sich also die hauptsächliche Betrachtung auf die Beziehung von Anfangs- und Endwert richten, die "Translation".

Mit einer Verknüpfung von Transformationen, sowie einer Transformation, die keine ist, weil sie keine Wertveränderung durchführt (Eins-Element) und einer Transformation, die exakt die vorherige aufhebt, also dem Endwert der vorherigen Transformation deren Anfangswert als aktuellen Wert der Eigenschaft erzeugt (Inverse), liegt damit eine recht gewöhnliche mathematische Menge vor, die sogar eine mathematische Gruppe ist, wenn, ja wenn die Transformation "wiederholbar" ist. Dann nämlich ist die Verknüpfung, die nacheinander ausgeführte Veränderung von Eigenschaften, assoziativ oder reihenfolgenunabhängig. Reihenfolgenunabhängig kann aber eine Transformation nur sein, wenn sie von einem bestimmten Anfangswert aus denselben Endwert erzeugt. Das ist wegen der völligen Unkenntnis über die Transformation keine Selbstverständlichkeit, sondern muß als klare Bedingung deshalb definiert. Kann also diese Bedingung nicht gefordert werden für die Gültigkeit weiterer Folgerungen, so kann auch nicht davon ausgegangen werden, daß sie erfüllt sind. Solche Transformationen dürfen dann auch nicht als Gruppe behandelt werden.

Warum das Bestreben der Informationsmathematik ist, hier die Gruppeneigenschaft der Transformationen zu beweisen und sei es auch nur unter der einschränkenden Bedingung wiederholbarer Transformationen, ist einfach der hohe Nutzen, der in dieser ausführlich untersuchten Mengenart liegt. Könnte für eine bestimmte Menge von Transformationen sogar noch Kontinuierlichkeit nachgewiesen werden, so wäre Noethers Theorem anwendbar, ein mathematisches Basis-Werkzeug der Physiker. Es besagt, daß zu jeder kontinuierlichen Gruppe eine Erhaltungsgröße existiert. Energie, Impuls, Drehimpuls, diese bekannten physikalischen Begriffe sind Erhaltungsgrößen mit weitreichender Konsequenz für die ganze Theorie der Physik und ihrer Anwendung, der modernen Technik.

Das hieße, daß eine kontinuierliche Gruppe wiederholbarer Transformationen eine Erhaltungsgröße besitzen würde, eine physikalisch sehr bedeutsame Behauptung.

Die Gruppe wiederholbarer Transformationen wird deshalb von der Informationsmathematik als "Information" über eine Eigenschaft definiert, denn damit enthält die Information sowohl die Kennntis über die Eigenschaft als auch über alle Werte, die von den Gruppenelementen erzeugt werden können. Diese Definition der Information erlaubt also nicht nur eine Speicherung von Werten, von Nachrichten, sondern auch die Beschreibung des Verhaltens der Eigenschaft. Information enthält jedoch nicht jede beliebige Wertveränderung, sondern nur diejenigen, die die klare Eigenschaft haben, wiedererkennbar zu sein, eine der fundamentalen Anforderungen an Information - Erkennbarkeit, Wiedererkennbarkeit. Diese Definition beinhaltet auch die Information über einen einzigen Wertewechsel dieser Eigenschaft als Transformation mit Anfangs- und Endwert.

Nach der aus dem Alltagsleben, aus Wissenschaft und Technik gewonnenen Erkenntnis, daß Information sich immer um Identitäten dreht, liegt es dann sehr nahe zu vermuten, daß die Erhaltungsgröße der Information, wenn sie eine kontinuierliche Gruppe bilden könnte, die Identität ist, also irgendetwas, mit dem eine Eigenschaft wiedererkannt, identifiziert werden kann, selbst wenn sie tausend Wertewechsel hinter sich hat.

Damit wäre es auch möglich, physikalische Methoden hinsichtlich der Tauglichkeit zur Behandlung ganz allgemeiner Informationen zu überprüfen, sich möglicherweise den ganzen, ausführlichen Apparat vielfach überprüfter Techniken zunutze zu machen.

Um auch die vielfältigen Möglichkeiten der Mathematik zu nutzen, untersucht die Informationsmathematik die Eigenschaften der Translation, der Beziehung von Anfangs- und Endwert, zwei an sich völlig normalen Mengenelementen, wie sie selbstverständlich in der Mathematik sind. Der Begriff des Wertebereichs ist dabei von ausschlaggebender Bedeutung, denn er schränkt die Menge,aus der die Werte stammen, auf diejenigen Elemente ein, die Werte der Eigenschaft sein können.

Der Wertebereich scheint eine ganz klare, einfache Sache zu sein. Da ist die Eigenschaft und da sind ihre möglichen Werte, doch was sind eigentlich Möglichkeiten?

Möglichkeit ist nicht definiert. Eigenschaften, Werte, Transformationen und ganze Ketten von Transformationen sind definiert, aber Möglichkeiten nicht.

Es muß also eine zu den bisherigen Definitionen konsistente Bestimmung des Wertebereichs erfolgen, denn die fast vollständige Unkenntnis über die Transformationen gebietet höchste Vorsicht im Umgang mit allen Begriffen, die mit ihr zu tun haben. Zwar ist gerade die Natürlichkeit des Ansatzes von Stabilität und Wechsel eine Hilfe beim Verständnis oder bei der Suche nach neuen, mathematisch zuverlässigen Formalismen im Umgang mit der vielfältigen Information, doch ist dies gleichzeitig eine Gefahr, vermeintliche Offensichtlichkeit nicht mehr ausreichend zu überprüfen.

Der Wertebereich wird deshalb definiert über Transformationsketten, die von einem Anfangswert der Eigenschaft ausgehen. Er ist damit als Menge zwar bestimmt und mathematisch zu verwenden, doch ist er als direkte Folge der Transformationen von deren Existenz abhängig. Diese Existenz, die ihrerseits nur über die Werte bestimmt ist, zeigt auf, wie kritisch die Objekte der Betrachtung gesehen werden müssen, wenn daraus verläßliche Folgerungen hergeleitet werden sollen.

Auf dem so definierten Wertebereich gewinnt die Translation jedoch eine sehr erfreuliche Eigenschaft. Als Abbild der Transformation, die den Wertebereich definiert, ist sie für jedes Element dieses Wertebereiches definiert, sie stellt eine mathematische Abbildung in sich selbst dar. Für wiederholbare Transformationen ist diese Abbildung sogar eindeutig und wenn die Nachvollziehbarkeit einer Transformation die Bedingung ist, daß nicht nur ein bestimmter Anfangswert immer auf denselben Endwert führt, sondern daß sogar jeder Anfangswert auf einen anderen Endwert führt, also von einem Endwert zuverlässig zurück auf den Anfangswert geschlossen werden kann, dann ist die Translation sogar eine eineindeutige Abbildung, eine besonders schöne mathematische Konstruktion. Schön ist eine mathematische Konstruktion immer dann, wenn sie viele Schlußfolgerungen erlaubt.

Damit läßt sich die erste Einsicht der Informationsmathematik beschreiben als die Erkenntnis, daß das Verhalten von Transformationen einer Eigenschaft auf einem definierten Wertebereich so genau den mathematischen Eigenschaften der erzeugten Translation, also der Beziehung zwischen den Werten, entsprechen, daß die Translation zuverlässig zur Beschreibung der Transformation verwendet werden kann. Wie ein Spiegelbild oder wie Platos Schatten protokolliert die Translation die Transformation.

Diese Einsicht ist nicht nur ein Beweis für die Tauglichkeit des Ansatzes, er beweist auch die Existenz von Humor in der Welt der Mathematik: wer schmunzelt denn dabei nicht?

Die Physik macht spätestens seit Newton nichts anderes, als die Vorgänge in der Natur durch das Verhalten definierter Eigenschaften über deren experimentell ermittelten Werte zu beschreiben und zu erklären, da ist es doch ungemein praktisch, wenn nun auch formelmäßig korrekt bewiesen wird, daß das überhaupt möglich ist!

Doch noch ist nicht aller Tage Abend für die Tauglichkeit der Informationsmathematik.

Nun werden nämlich Folgen von Eigenschaften und entsprechende Folgen ihrer Zuordnungen und Werte definiert.

Kein Problem?

Wo weder etwas über die Eigenschaften noch über ihre Transformationen ausgesagt wird, höchstens ob sie wiederholbar oder nachvollziehbar sind?

Leider sind die Werte nämlich nun nicht mehr so schön verwendbar. Die Definition der Beziehung zwischen Eigenschaft und Wert ist zwar eindeutig für die Eigenschaft, sie kann also nicht gleichzeitig zwei Werte haben, aber nichts verbietet einem Wert, zwei Eigenschaften zu haben, zwei Eigenschaften zugeordnet zu werden.

Auch die Definition der Anordnung von Eigenschaften als Folge erlaubt eine Mehrdeutigkeit. Die Mathematik kennt die konstante Folge, die zwar unendlich viele Folgenglieder hat, die jedoch immer gleich sind.

Der erste Versuch, trotz dieser allgegenwärtigen Unbestimmtheit noch Fuß zu fassen, ist also, sich zu konzentrieren. Zuerst werden alle Problemfälle links liegen gelassen.

Für die Folge von Eigenschaften heißt dies, daß sie jede Eigenschaft nur einmal enthalten, für die Wertebereiche, daß sie nicht überlappen, sodaß jeder Wert klar einer einzigen Eigenschaft zugeordnet werden kann. Damit ist zwar eine Vielfalt von Eigenschaften, ihren Transformationen und ihren Translationen definiert, doch das Problem ist prinzipiell nicht unterschiedlich von einer einzigen Eigenschaft. Die schöne Klarheit der Physik, wo aus Werten auf das Verhalten der Eigenschaften zurückgeschlossen werden kann, ist wieder erreicht.

Sofort drängt sich dann die Frage auf, ob sich nicht alle Eigenschaftsfolgen irgendwie auf solche einfachen Profilschablonen, wie sie die Informationsmathematik nennt, zurückführen lassen und ob es nicht sogar eine Art von Basis-Folgen gibt, die als Koordinatensystem aller denkbaren Folgen dienen können. Diesen Ansatz vertreten die Physiker mit den vier grundlegenden Wechselwirkungen.

Doch was stutzig macht, ist, daß das nicht der Weg des Gehirns war. Es war der Weg der Genetik, auch der Weg der Sprache, der Konfigurationsmethode. Zwar nicht für alle, aber für einen Teilbereich von Eigenschaften wurden solche Basis-Folgen gefunden, deren Werte auch Wertänderungen entsprechen konnten und somit als Nachricht abgespeicherbar waren.

Das Gehirn speichert jedoch nicht Translationen als einfache Werte oder Daten, sondern als Übertragung von Daten. Das Gehirn entwickelte sich aus dem Bedürfnis mobiler Organismen, Umweltinformationen aufzunehmen und zur Entscheidung des Verhaltens zu benutzen. Es ist also seiner Aufgabe nach ein Übertragungsinstrument, das eingehende Signale aufbereitet an eine Steuerungsstelle weiterreicht, wo dann entsprechende Schalter umgelegt werden.

Genau diese aktiven Übertragungswege dienen nun nicht nur als Verarbeitungs-, sondern auch als Speicherinstrument. Bei der Embyronalentwicklung des Gehirns legt es fast doppelt soviele Neuronen an als nach den 10. Lebensjahr noch beim Menschen tatsächlich existieren, es sieht fast aus, als produziere es vorgefertigte Übertragungsbahnen für alles und jedes, was ein Neuron als Signal erhalten kann, zumal auch die Anzahl der Verknüpfungen rapide gesenkt wird im Laufe der sogenannten 2. Evolution des Gehirns.

Worin liegt nun der Unterschied zwischen diesen beiden Speichermethoden?

Die Konfigurationsmethode kennt eine Profilschablone, eine Folge von Eigenschaften mit ihren Transformationen. Sie ist damit in der Lage, ein Profil zu speichern, indem sie die aktuellen Werte, die jede dieser Eigenschaften aufweist, als Daten oder Nachricht gesondert abspeichert. Will sie den zu speichernden Zustand wiederherstellen, so ordnet sie den Eigenschaften die gespeicherten Werte ihrer Reihenfolge nach zu. Wäre die Reihenfolge nicht bekannt, müßte der abgespeicherte Wert durch ein anderes Verfahren seiner Eigenschaft wieder beigefügt werden, um die Information aus der Datenspeicherung korrekt zu zur Wiedergewinnung der alten Identität zu verwenden. Die Konfigurationsmethode speichert demnach nur das Wissen über die Zustände der Eigenschaft, jedoch nicht über ihre Transformation, mit denen diese Werte den Eigenschaften wieder zugeordnet werden können. Das muß bei genauerem Hinsehen von dieser Methode selbst zur Verfügung gestellt werden. Konfigurationsmethoden müssen also spezifisch für die Profilschablonen zugeschnitten sein, für die sie Werte abspeichern können, um diese Werte auch wieder Profilschablonen zuordnen zu können.

Die Konfigurationsmethode ist damit in der Lage, Informationen mithilfe ihre Nachrichten zu speichern, solange sie das Verhalten der beteiligten Eigenschaften beherrscht, denn sie kann damit Identitäten definieren, speichern, übertragen und wiedererkennen.

Das bekannteste Beispiel für einen solche Informationstransfer dürfte wohl der Film "Jurassic Park" sein. Dieser Film geht von der Voraussetzung aus, Gene von Dinosauriern hätten sich fehlerfrei erhalten und wären mithilfe von Frosch-Eizellen zu funktionsfähigen Tieren geklont worden. Die nach der biologischen Konfigurationsmethode gespeicherten Werte wurden also durch diese Methode wieder den betreffenden Eigenschaften des Organismus zugeordnet, die Identität der Saurier wurde wiederhergestellt. Im Beispiel der Genetik ist es die Eizelle, die die benötigten Verfahren stellt, mit denen die in den Genen gespeicherten Werte wieder den Eigenschaften zugeordnet werden können, mit denen der Zustand, der über die Speicherung konserviert werden sollte, auch vollständig wiederhergestellt werden kann.

Ein anderes Beispiel aus der Datenverarbeitung ist die Abspeicherung eines Dokumentes in einem bestimmten Format. Ohne ein Programm, das dieses Format zu bearbeiten vermag, kann das Dokument nicht wiederhergestellt, nicht wieder gelesen werden, das Programm muß also die Verfahren liefern, um die abgespeicherten Werte ihren Eigenschaften wieder korrekt zuzuordnen und damit das gewünschte Ergebnis präsentieren zu können.

Aber das Gehirn speichert seine Informationen nicht in dieser Form. Zwar speichert es Übertragungswege ab, es selektiert aus einem hohen Angebot von Neuronen und neuronalen Verbindungen eine Menge aus, die seiner Lebenserfahrung nach notwendig zu sein schien, wobei diese Übertragungswege selbst sicher mit einer Konfigurationsmethode speicherbar sind, egal wie mächtig und umfangreich sie sein müßte. Doch Erinnerungen speichert es in regelrechten Schaltkreisen, in Netzen von Neuronen, ständig aktiv.

Warum?

Wesentliche Voraussetzung für die Konfigurationsmethode war die Kenntnis der Profilschablone, der beteiligten Eigenschaften und ihrer Ordnung. Auch das Gehirn kennt Profilschablonen, alle seine Sensoriken sind Abbilder von Eigenschaften seiner Umwelt, die es kennt, deren Verhalten und Wertebereich es einstufen kann. Es wäre also denkbar, daß für diese Eigenschaften mit ihren Möglichkeiten der Kombination und des Verhaltens die Übertragungswege im Gehirn als Abbilder seiner Umwelt bereitgestellt würden. Doch nicht erst die moderne Physik mußte dem Gehirn beweisen, daß seine Sensoriken nicht für alle Erscheinungen dieser Welt ausreichen.

Unwissenheit schützt vor Strafe nicht. Dieser einfache Grundsatz bewegte das Leben schon früh, auch das Unbekannte zu berücksichtigen, soweit es irgend möglich ist. Platos Problem mußte gelöst werden. Aus Wertänderungen der Umwelt mußte ausreichend korrekt auf die Ursache zurückgeschlossen werden, um deren weiteren Einfluß auf das eigene Leben abschätzen zu können.

Die Sensoren, die dem Gehirn zur Verfügung stehen, sind sehr allgemeiner Art, sie arbeiten nach grundlegenden, also sehr zuverlässigen physikalisch-chemischen Gesetzen. Sie liefern insgesamt recht exakte Nachrichten über die Umwelt, doch es sind eben der Natur der Sensoren nach Nachrichten von Transformationen sehr grundlegender Eigenschaften, ohne Hinweis auf irgendwelche Verbindungen, ohne eigenen inneren Zusammenhang. Blau und Rot und Gelb bilden die Basis für alles Sichtbare und doch nützt es recht wenig, nur das zu wissen, wenn man ein vollständiges Bild haben möchte.

Das Problem der Mustererkennung mußte also schon früh angepackt werden Obwohl an dieser Stelle also noch die Eigenschaften und ihre Wertebereiche der erfahrenen Translationen bekannt sind, so genügten sie in einer immer differenzierteren Umwelt nicht mehr, um ausreichend differenzierte Reaktionen zu erlauben.

An der Entwicklungsgeschichte des Nervensystems ist dies fast bildhaft zu erkennen. Die Zelle, die bereits die geniale Gentechnik zur Konfigurationsspeicherung entwickelt hatte, besitzt als eigenständiges Tier zwar erkennbare Reizleitungssysteme, um Informationen der Umwelt aufzunehmen und entsprechend angepaßt zu reagieren, doch erst Mehrzeller konnten zu diesem Zweck ganze Zellverbünde abstellen. Hohltiere, also sehr frühe Entwicklungsstadien mit wenig differenzierten Bauplänen, weisen als Nervensystem ein gleichmäßig verzweigtes Konstrukt auf, das Impulse von den Sensoren und die entsprechenden Reaktion nach einem so zufällig wirkenden Prinzip weiterleitet, wie es die Evolution antreibt, die es geprägt hatte.

Doch bei einfachen wirbellosen Tieren setzte sich bereits eine Ordnung in den Reizleitungen durch. Zwei verbundene Hauptkanäle sammelten die Reize, die Informationen von den Sensoren und die Reaktionen darauf transportierten. Aber noch am menschlichen Rückenmark ist zu bemerken, daß es nicht der Grund von Senden und Empfangen war, der für die Zweiteilung verantwortlich zeichnete.

Gerade eine Verbindung dieser beiden Reizleitungen entwickelte sich später zum Gehirn, ein deutliches Indiz nicht nur dafür, daß diese Verbindung mit der Verarbeitung der Information zu tun haben mußte, sondern daß die ganze Konstruktion der Informationsverarbeitung zu dienen scheint. Während die Einzeller und Hohltiere noch diffuse Reizwege und demnach auch nicht sehr differenzierte Reaktionen beherrschten, so waren diese Doppelleitsysteme offenbar von derart hohem evolutionärem Vorteil, daß sie die Basis für die weitere Hirnentwicklung stellten. Neben der Zentrierung der Informationsverarbeitung bot sie jedoch noch einen weiteren Vorteil, sie übertrug die Information, von welcher Seite des größer werdenden Körpers die Sensoreindrücke stammten. Die in der Zentrale einlaufenden Reize waren streng nach einer klaren Körperachse getrennt und erlaubten damit Richtungsbestimmungen durch Vergleich parallel einlaufender Reize. Frühe Telemetrie, würde der Kenner wohl sagen.

Diese Orientierung des eigenen Körpers gegenüber den Umwelteinflüssen, die die jeweiligen Sensorsignale erzeugten, erlaubte damit die Identifizierung des verursachenden Objektes, wunderschön heute noch an dem hüpfenden Bild zu sehen, das Augen liefern, wenn sie wahlweise links oder rechts geschlossen werden.

Der Vorteil dieser Identifizierung muß sehr hoch gewesen sein, wenn man die Perfektion bedenkt, mit der das Gehirn dies im Laufe der Zeit zu bewältigen lernte. Wer sich einmal Gedanken über die Lösung von Platos Problem machte, wird schnell verstehen, daß es einfacher zu lösen ist, je mehr die Eigenschaften bekannt sind, deren Transformationen die Wertveränderungen auslösten, die dann wiederum als Translationen zu analysieren sind.

Doch die Geschichte des Gehirns zeigt eben auch, daß es Grenzen in der Identifizierbarkeit gibt. Der Thalamus, das "Tor zum Bewußtsein", der möglicherweise diese Aufgabe der Identifikation durch telemetrische Übungen bravourös vorbereitet, könnte dem Großhirn seine beiden Vorschläge zur Synthese übermittelt haben, um daraus die endgültige Idee dieser Identität in ihrer Gesamtheit zu erstellen. Gerade dieser Bereich wuchs mit für evolutionäre Entwicklungen erstaunlicher Geschwindigkeit beim Homo Sapiens.

Und wie es scheint, ist die primäre Methode des Gehirns der Vergleich, von parallel einlaufenden Signalen, aber auch von Ähnlichkeitsbetrachtungen mit früher erfahrenen Translationen, mit Erinnerung. Die Abspeicherung von Translationen, deren Konsequenzen erlebt und deshalb bekannt sind und die mangels tieferer Einsichten in die verursachenden Transformationen für das nächste Mal als Arbeitsmodell herangezogen werden, um dann durch die neuen Erfahrungen ergänzt und erweitert zu werden, erweist sich als so erfolgreich, daß es den Benutzer des dafür bestausgestattetsten Organs zur beherrschenden Art der Erde machte. Wobei ein wesentlicher Unterschied zur Konfigurationsmethode darin besteht, daß nicht die Werte eines Zustandes gespeichert werden, sondern die Translation in ihrem Ablauf. Das Gehirn speichert einen Reiz in seiner Aktivität, der sich in seinem Erscheinungsbild nicht wesentlich von einem gerade einlaufenden Reiz aus der Umwelt unterscheidet, es speichert Erinnerungen als Neuronenaktivität, nicht als statische Wertekonserve.

Mit dieser Methode ist das Gehirn imstande, aus den widersprüchlichsten, chaotischsten Puzzlestücken oft die genialsten Konstruktionen herauszulesen und weiterzuentwickeln. Sie ist bestens geeignet, Platos Problem zu lösen: aus Schattenspielen auf die beteiligten Schattenspieler und das Spiel zurückzuschließen.

Aus Interferenzen auf die zugrundeliegenden Funktionen zurückzuschließen, ist eine Aufgabe, die die Mathematik schon in umfangreichem Maße beherrscht. Die moderne Nachrichtentheorie basiert auf statistischen Methoden, möglicherweise ähnlich wie die des Gehirns, das Translationen in Unkenntnis von Eigenschaft und Transformationen vergleicht, um über erkennbare Muster auf Eigenschaft und Transformation zurückzuschließen, zumindest auf generelle und wiederverwertbare Charakterzüge.

Die Aufgabe der Informationsmathematik wird also nicht zuletzt sein, die Wertebereiche zu untersuchen, um Rückschlüsse auf die zugehörigen Eigenschaften durchführen zu können, sodaß die Translationen wieder verwendbar sind als Beschreibung von Eigenschaften und Transformationen. Wobei die Schwierigkeit nicht nur in der Mehrdeutigkeit der Werte hinsichtlich ihrer Eigenschaftszugehörigkeit liegt, sondern auch hinsichtlich der Reihenfolge ihres Vorkommens.

Eine Gesamttransformation einer Eigenschaftsfolge ist definiert als die der Folge entsprechenden Transformationen, aber auch Gesamttransformationen können mehrfach auftreten. Erkennbar auf dem Wertebereich ist aber nur die resultierende Anordnung der als unterschiedlich erkannten Werte.

Dem Beispiel des Gehirns folgend könnte also untersucht werden, inwieweit die Informationen über eine Profilschablone, also die Kenntnis der Eigenschaften und ihres Verhaltens, verwendet werden kann, um Translationen unbekannter Herkunft zu analysieren und daraus Informationen über neue Eigenschaften zu ermitteln. Vielleicht führt auch Normierung von Wertebereichen oder Translationen zu verwertbaren Ergebnissen. Nach dem Aufwand zu schätzen, den das Gehirn trieb, um Platos Problem zu lösen, wird es jedenfalls nicht leicht werden.