Studium, Ausbildung und Beruf

web uni-protokolle.de
 powered by
NachrichtenLexikonProtokolleBücherForenMittwoch, 18. September 2019 

Information


Dieser Artikel von Wikipedia ist u.U. veraltet. Die neue Version gibt es hier.

Irisierende CD

Information (lat. informare =bilden durch Unterweisung Gestalt geben) im eigentlichen ist potentiell oder aktuell vorhandenes nutzbares oder Wissen. Wesentlich für die Information ist die sowie der Neuigkeitsgehalt eines bestimmten Musters von Materie und/oder Energieformen in Raum und/oder Zeit : Das Muster entwickelt für einen Betrachter eines bestimmten Kontextes Bedeutung und verändert dadurch dessen inneren Zustand im menschlichen Zusammenhang insbesondere dessen Wissen .

Inhaltsverzeichnis

Charakteristika des Informationsbegriffes

Es ist schwierig eine allgemeine dem leicht fassbare Definition des Begriffes Information zu Verschiedene Wissenschaften betrachten die Information als ihr namentlich die deutsche Informatik und die Informationswissenschaft doch auch die Physik die Biologie die Nachrichtentechnik die Informationsökonomik und die Semiotik haben je eine eigene Auffassung über Wesen der Information. Diese Ansätze unterscheiden sich Teil erheblich.

Erst in jüngster Zeit gibt es die einzelnen Ansätze zu verbinden und zu allgemeingültigen Informationsbegriff zu kommen. Entsprechende Literatur findet derzeit meist unter dem Stichwort Philosophie in den Regalen. Von einer vereinheitlichten der Information kann daher nicht gesprochen werden.

Eine der Hauptschwierigkeiten des Informationsbegriffes liegt dass im allgemeinen Sprachgebrauch sowie in einigen (Semiotik Informationswissenschaften) oft "Information" mit " Bedeutung " oder "übertragenem Wissen" gleichgesetzt wird. Wesentliche für unser heutiges Verständnis von Information entstanden aus der Nachrichtentechnik und in den frühen (insbesondere von Claude Shannon ) ist Information erst einmal völlig von Bedeutung gelöst und auf die reine Unterscheidbarkeit Zuständen reduziert. In diesem Artikel wird zunächst die begriffliche Unterscheidung von Struktur und Bedeutung sowie auf die Verschränkungen denen diese Teilaspekte

Struktur und Bedeutung

Dem Begriff der Information kann man also von zwei Seiten aus nähern: Die Betrachtungsweise greift am Informationsträger an und stellt die Frage welche Struktur sich innerhalb dieses feststellen lässt. Der andere Ansatz bemüht sich verstehen welche Bedeutung dem zukommt was man (irgendwie) diesem Informationsträger entnommmen hat. Die erste hat ihre Wurzeln in der Nachrichtentechnik die eher in den Kognitionswissenschaften. Eine nachrichtentechnisch erkennbare (z.B. Lichtimpulse die in einer zeitlichen Reihenfolge einzelne Zellen in der Netzhaut treffen) muss einem komplexen Dekodierungsprozess in eine Bedeutung übersetzt Wo hier die reine Strukturinformation aufhört und eine Bedeutungsinformation zu werden wo also in Dekodierungsprozess die Grenze zum Bewusstsein zu ziehen ist ist eine der Fragen der Informations- und Kognitionswissenschaften. Je tiefer die Grenze ansetzt um so metaphysischer wird strukturelle Information: Ist die in der DNA Erbinformation nur Struktur oder schon Bedeutung? Oder sie vielleicht erst zur Bedeutung indem sie wird also zur Herstellung von Proteinen dient?

Aus diesen Betrachtungen ergeben sich drei unter denen der Begriff der Information heute betrachtet wird. Diese sind

  1. Syntax
  2. Semantik
  3. Pragmatik

Diese Ebenen steigern sich im Hinblick den Bedeutungsgehalt der Information. Sie spiegeln dabei die oben erwähnten theoretischen Angriffspunkte wider wobei syntaktische Ebene der Sichtweise der Nachrichtentechnik nahekommt semantische Ebene Ansätze aus der Semiotik integriert und die Pragmatik eher auf der Kognitionswissenschaften zurückgreift.

Die drei Ebenen sollen an der "ES IST WARM" erläutert werden:

Syntaktische Ebene der Information

Auf der syntaktischen Ebene wird Information als Struktur gesehen die es zu übermitteln Der Inhalt der Information ist hierbei im uninteressant. Beispielsweise könnte das Problem darin bestehen Bild einer Kamera auf einen Monitor zu Das Übertragungssystem interessiert sich dabei z.B. nicht ob es das Bild überhaupt wert ist zu werden (Einbrecher macht sich am Fenster schaffen) oder nicht (Katze läuft am Fenstersims oder ob überhaupt etwas zu erkennen ist das Bild einer komplett unscharf eingestellten Kamera vollständig übertragen obwohl es da eigentlich nichts zu sehen gibt). Der Informationsgehalt ist dabei Maß für die maximale Effizienz mit der Information verlustfrei übertragen werden kann.

Unterscheidbarkeit und Informationsgehalt

Grundprinzip der syntaktischen Information ist die Information enthält was unterschieden werden kann. Eine setzt jedoch mindestens zwei unterschiedliche Möglichkeiten voraus.

Sind es genau zwei Möglichkeiten so sich die Unterscheidung mit einer einzigen Ja/Nein-Frage Beispiel: Angenommen auf einer Speisekarte gibt es zwei Gerichte Schnitzel und Spaghetti. Um herauszufinden jemand bestellt hat braucht man ihm nur einzige Frage zu stellen: "Haben Sie Schnitzel Lautet die Antwort "Ja" so hat er Schnitzel bestellt lautet die Antwort "Nein" so er Spaghetti bestellt (denn etwas anderes gibt ja nicht zu bestellen).

Sind hingegen mehr als zwei Möglichkeiten so kann man dennoch mittels Ja-Nein-Fragen herausfinden Alternative zutrifft. Eine einfache Möglichkeit wäre einfach Reihenfolge nach alle Gerichte abzufragen. Jedoch ist eine recht ineffiziente Methode: Wenn ein Gericht Ende der Speisekarte bestellt wurde braucht man viele Fragen um es herauszufinden. Günstiger ist wenn man z.B. erst fragt: "Haben Sie Fleischgericht bestellt?" um dann konkreter zu werden es Schweinefleisch?" so daß schließlich nur noch Alternativen übrig bleiben ("War es Schweineschnitzel?" "Schweinebraten?"

Auch die Wahrscheinlichkeiten spielen bei einer Fragestrategie eine Rolle: Wenn man z.B. weiß die Hälfte aller Gäste Schweineschnitzel bestellt so es sicher sinnvoll erst einmal nach Schweineschnitzel fragen bevor man den Rest der Karte

Der Informationsgehalt einer Struktur bestimmt sich dadurch wieviele Ja-Nein-Fragen man im Mittel bei idealen Fragestrategie braucht.

Interessant ist hierbei daß zwar vordergründig semantische oder pragmatische Informationen verwendet werden diese implizit in Form der Wahrscheinlichkeit dennoch eingehen. ist die Tatsache dass 50% der Gäste bestellen nicht aus der Speisekarte zu erkennen; ist eine pragmatische Information. Und daß man nicht dach der Bestellung von "Wir wünschen einen guten Appetit" fragt folgt aus der Information daß dies keine Speise ist und daher höchst unwahrscheinlich ist daß jemand dies

Binarisierung und die Wahrscheinlichkeit von Zeichen

Die Zeichenfolge "ES IST WARM" enthält Großbuchstaben. Wenn wir einmal nur davon ausgehen wir nur Großbuchstaben zur Verfügung hätten (also Buchstaben einschließlich Leerzeichen) so können wir an der elf Stellen der obigen Nachricht eines 27 Zeichen setzen. Jede Stelle der Nachricht also 27 mögliche "Zustände". Man kann dies dahingehend verallgemeinern dass man die Zustände binarisiert in mehrere Unterscheidungen zwischen exakt zwei möglichen Zuständen unterteilt die man durch und null darstellt. Diese kleinstmögliche Unterscheidung zwischen zwei Zuständen wird als Bit bezeichnet. Man kann zum Beispiel den A durch "00001" B durch "00010" C "00011" D durch "00100" E durch "00101" und so weiter bis zum Leerzeichen "11100".

Unsere Nachricht hieße dann "00101 10011 01001 10011 10100 11100 ... 01101".

Jede Stelle hat jetzt also den von 1 Bit. Um einen unserer 27 zu codieren braucht man wie zu sehen genau fünf Bit: Es muss fünf mal Unterscheidung zwischen ja und nein getroffen werden klar ist um welchen Buchstaben es sich

Nun ist die obige Codierung der in fünf Ja/Nein-Entscheidungen nicht die allein gültige. Rahmen der klassischen Informationstheorie wird nämlich der Informationsträger in einem Kontext betrachtet. So kann berücksichtigt werden wie ein bestimmtes Zeichen des Zeichenvorrats verwendet wird anderen Worten wie wahrscheinlich sein Auftreten ist. So ist beispielsweise Buchstabe "E" im Deutschen häufiger als der "Y". (Wichtig ist an dieser Stelle festzuhalten der Zeichenvorrat für jede syntaktische Betrachtung bekannt muss dass Information also bereits zur rein Aufbereitung im Rahmen eines semantischen Kontextes betrachtet muss.)

Berücksichtigt man diese Auftretenswahrscheinlichkeit der Zeichen Zeichenvorrat so kann man die Anzahl der Ja/Nein-Entscheidungen die zum Erkennen eines Zeichens notwendig je nach Zeichen unterschiedlich groß machen. Technisch sich ein solcher Code zum Beispiel nach Huffman-Verfahren entwickeln.

Damit benötigt man um ein häufig Zeichen zu codieren weniger Bits als für ein selten auftretendes Zeichen. Zeichen hat also einen um so höheren Informationsgehalt (benötigt zur Erkennung eine höhere an atomaren Entscheidungseinheiten an Bits) wenn es einem semantischen Kontext seltener auftritt.

Mathematisch ergibt sich die Anzahl der Bits (dem Informationsgehalt) eines Zeichens <math>x_i</math> aus negativen dualen Logarithmus seiner Auftretens wahrscheinlichkeit <math>p_i</math>:

<math>I_i = -\log_2 p_i</math>

Siehe auch: Entropie (Informationstheorie)

Kommunikationsmodell der Information

Das Verständnis der syntaktischen Ebene war Zeit gekennzeichnet durch das Sender-Empfänger-Modell: Ein Sender eine Information dem Empfänger mitteilen. Dazu codiert seine Information nach bestimmten Prinzipen (z.B. als von Nullen und Einsen nach dem oben Prinzip) in einen Informationsträger der Empfänger wertet Informationsträger aus denn auch er kennt den und erhält dadurch die Information (siehe auch: Kommunikation ).

Nicht immer ist jedoch ein Sender der uns etwas mitteilen will. Ein typisches ist die Messung : Dem physikalischen System ist es bildlich völlig egal was wir von ihm denken. ist das Ziel der Messung eine Informationsübertragung gemessenen System zu dem der die Messung (man misst um etwas über das gemessene zu erfahren). Ein Beispiel ist die Geschwindigkeitsmessung Radarfalle: Das Auto hat sicher keine Intention Geschwindigkeit zu verraten (und der Autofahrer meist nicht). Dennoch gewinnt der Polizist durch die Information über die Geschwindigkeit. Hier ist die nicht Folge einer Planung sondern eines physikalischen (Dopplereffekt).

Zusammengefasst:

  • In jeder Art von Struktur oder Muster Materie oder Energie steckt Information
  • Syntaktisch entspricht Information der Auftretenswahrscheinlichkeit eines bestimmten innerhalb eines definierten Dekodierungsschemas
  • Information ist eine räumliche oder zeitliche Folge Signale die mit bestimmten Wahrscheinlichkeiten oder Häufigkeiten
  • Der Informationsgehalt einer Nachricht ergibt sich aus Anzahl der ja/nein-Möglichkeiten für die in der einer der Werte festgelegt ist.

Semantische Ebene der Information

Strukturierte syntaktische Informationen werden erst verwertbar sie gelesen und interpretiert werden. Das heißt Strukturebene muss die Bedeutungsebene hinzukommen. Dazu muss bestimmtes Bezugssystem angelegt werden um die Strukturen eine Bedeutung überführen zu können. Dieses Bezugssystem man als Code . Im obigen Beispiel muss man also dass die Nachricht aus den Buchstaben "A" "Z" und dem Leerzeichen bestehen kann. Man wenig Erfolg den gleichen Code an eine anzulegen die chinesische Schriftzeichen darstellen soll.

Jedoch ist die Überführung von Syntax Semantik selten so direkt; in der Regel die Information über sehr viele unterschiedliche Codes höherer semantischer Ebene verarbeitet: Dabei wird auf unterschiedlichen semantischen Ebenen wiederum Informationsverarbeitung auf strukturell-syntaktischer geleistet: Die Lichtimpulse die gerade auf Ihre treffen werden dort von Nervenzellen registriert ( Bedeutung für die Nervenzelle) an das Gehirn in einen räumlichen Zusammenhang gebracht als Buchstaben zu Worten zusammengefügt. Während dieser ganzen Zeit Nervenimpulse (also Strukturinformationen) von einer Gehirnzelle zur geschossen bis sich auf diese Weise in Bewusstsein die durch Worte nur unzureichend wiedergebbaren Begriffe für "warm" "jetzt" und "hier" zu beginnen die dann im Zusammenhang eine Bedeutung Sie wissen jetzt dass es bei diesen um die Feststellung geht dass es warm nicht etwa kalt) ist.

Zusammengefasst:

  • Strukturinformation wird in einem Dekodierungsprozess in Semantik überführt.
  • Dabei wird Strukturinformation stufenweise über Codes in Strukturinformation überführt wobei sich auf den unterschiedlichen Stufen jeweils Bedeutung für das verarbeitende System
  • Information ist übertragbar z.B. als Nachricht; Auskunft; Aufklärung
  • Information kann weitergegeben werden ohne dadurch weniger werden. Information wird durch Weitergabe also quasi Mit Materie oder Energie geht das nicht.

Pragmatische Ebene der Information

Diese kommt dem umgangssprachlichen Informationsbegriff am Die Aussage dass es warm ist (die nun semantisch richtig interpretiert haben wir wissen diese Botschaft uns sagen will) hat echten wenn wir uns mittags um zwölf nach durchzechten Nacht noch halb schlaftrunken überlegen was anziehen sollen und uns die Freundin mit Worten "es ist warm" davon abhält in Rollkragenpullover zu schlüpfen. Der pragmatische Informationsgehalt der semantisch exakt gleichen - Aussage ist aber null wenn wir bereits im T-Shirt auf Balkon sitzen und schwitzen. Diese Information bietet nichts neues. Smalltalk ist eine Art des Informationsaustausches bei die offensichtlich über die Sprache ausgetauschten semantischen so gut wie keine pragmatische Information darstellen wichtig sind hier die Körpersignale deren Semantik Abneigung) wir erkennen und pragmatisch (mag die verwerten können.

In diesem pragmatischen Sinne ist wesentliches von Information dass sie das Subjekt das Information aufnimmt verändert was konkret bedeutet dass sich die die potentiell dem Subjekt entnommen werden kann

Zusammengefasst:

  • Information ist ein Gewinn an Wissen
  • Information ist die Verringerung von Ungewissheit
  • Information ist eine Mitteilung die den Zustand Empfängers ändert.

Zyklische Verschränkung der Ebenen

Die drei genannten Ebenen sind jedoch getrennt zu betrachten. Vielmehr stellen sie sozusagen man verzeihe das schräge Bild - die Seiten der selben Medaille dar: Bereits die Ebene setzt eine Semantik voraus innerhalb derer Symbole dekodiert werden: Die Struktur der DNA codiert im Rahmen des Genetischen Codes bestimmte Proteine: Um diese Struktur innerhalb DNA überhaupt zu erkennen muss bereits die Semantik des genetischen Codes berücksichtigt werden. Denn DNA-Molekül kann durchaus noch andere Informationen tragen: ist zum Beispiel die "Doppelhelixstruktur" der Ausdruck anderen Semantik nämlich der des räumlichen Erscheinungsbildes Moleküls. Auch stellt die semantische Verarbeitung (z.B. Zusammenfassen von Buchstaben zu Wörtern) wiederum syntaktische (nämlich eine Abfolge von Wort-Symbolen) her. Letztlich sich auch die pragmatische Ebene nicht zuletzt dass sie selbst neue Information syntaktischer Natur muss (sonst hätte die Information keine Wirkung Aufgrund des engen Zusammenspiels zwischen semantischen Dekodierungsprozess Wirkentfaltung in der Pragmatik die beide wiederum Informationen als End- und Zwischenprodukte generieren werden diese beiden Ebenen auch zur Semantopragmatik verschmolzen.

Im folgenden Beispiel eines Telefongespräches werden unterschiedlichen Verschränkungen der Ebenen nochmals deutlich: (ich das Beispiel etwas wirr Kommentar Benutzer:rho)
Syntax Semantik Pragmatik
Schallwellen mit wechselnder Frequenz und Intensität Unterschiedlicher elektr. Widerstand bei unterschiedl. Druck Unterschiedlich fließender elektrischer Strom
Unterschiedlich fließender elektrischer Strom Unterschiedliches Magnetfeld bei Unterschiedlichem Strom Bewegung einer am Magneten befestigten Membran
Bewegung einer am Magneten befestigten Membran Schwingungsübertragung durch Luftmoleküle Entstehen einer Schallwelle
Auftreffen einer Schallwelle auf das System / Gehörknöchelchen / Schnecke / Schallrezeptoren Feuern der Rezeptor-Nervenzelle bei Erregung Nervenimpuls
Impuls vieler Rezeptornevenzellen an einer verarbeitenden im Gehirn Feuern der verarbeitenden Zelle bei Schwellwertüberschreitung Feuern oder Nichtfeuern einer verarbeitenden Nervenzelle
Feuern oder Nichtfeuern vieler verarbeitender Nervenzellen Vernetzung der Nervenzellen Emergierende Muster in Raum und Zeit verarbeitenden Nervenzellen
Emergierende Muster in Raum und Zeit verarbeitenden Nervenzellen (dieser semantische Schritt ist eines der Rätsel der Gehirnforschung) Wort "Ich" gehört
Worte "Ich komme morgen an" gehört (dieser semantische Schritt ist ein noch größeres Rätsel der Bewußtseinsforschung) - erneut spielt Emergenz der Muster von feuernden Gehirnzellen eine Diese Worte mit dem Begriff über verbunden und den Begriffen über den morgigen und dem Begriff dass jemand kommt und Begriff dass es sich bei dem der kommt um den Gesprächspartner handelt. Mit anderen Jetzt wissen dass der Gesprächspartner morgen eintrifft.
Wissen dass der Gesprächspartner morgen eintrifft. erinnern dass er mit dem Zug kommen und dass der Bahnhof zwanzig Kilometer weit ist (dieser semantische Schritt ist ein noch viel größeres Rätsel der Bewußtseinsforschung) Ihm sagen werden dass man ihn dem Auto abholen kommt

Physik und Information

Der Begriff der Information gewinnt in Physik mehr und mehr an Bedeutung. Die Theorie die eine Verbindung zwischen der Physik der Informationstheorie aufzeigte war die statistische Mechanik . Die Quantenmechanik schließlich zeigt den Weg zu einer neuen Art von Information.

Information und statistische Mechanik

Mit der Thermodynamik wurde auch eine neue Größe in der Physik eingeführt: Die Entropie . Diese Größe zeigt ein ungewöhnliches Verhalten: kann in einem geschlossenen System nicht ab- nur zunehmen. Diese Eigenschaft ist in Form 2. Hauptsatzes eine der Grundlagen der Thermodynamik.

Die statistische Mechanik die die Thermodynamik auf ungeordnete mikroskopische zurückführt erklärt nun die Entropie über die von Bewegungszuständen. Die Formel die dabei auftritt bis auf einen konstanten Vorfaktor gerade die für die Informationsentropie. In der Tat läßt die statistische Mechanik vollständig aus dem Prinzip maximalen Entropie herleiten das darauf beruht bei teilweise bekannten Daten stets davon auszugehen daß (durch die Informationsentropie beschriebene) Unkenntnis über das maximal ist.

Ein anschauliches Beispiel wie der 2. der Thermodynamik mit der Information zusammenhängt liefert Maxwellsche Dämon . Der Maxwellsche Dämon umgeht den zweiten indem er an einem kleinen Loch zwischen Gasbehältern sitzt das durch eine reibungsfreie Klappe werden kann. Das Loch ist so klein nur ein Gasmolekül gleichzeitig hindurchfliegen kann. Der beobachtet nun die Gasmoleküle die auf das zufliegen. Kommt von links ein schnelles Molekül von rechts ein langsames Molekül so macht die Klappe auf so daß es durchkann. hingegen von links ein langsames oder von ein schnelles Molekül so schließt er die Dadurch sammeln sich links die langsamen und die schnellen Moleküle d.h. der rechte Behälter sich auf und der linke kühlt sich ohne daß Arbeit verrichtet werden müßte im zum 2. Hauptsatz. Durch Information (ist das ein "erwünschtes" oder "unerwünschtes"?) wird also scheinbar physikalisches Gesetz "ausgehebelt".

Die Lösung des Problems liegt darin der Erwerb (bzw. das anschließende Vergessen) der seinerseits Entropie (also Wärme) produziert die groß ist um die Entropieverringerung der Behälter auszugleichen. Folge davon ist daß nach heutigen Konstruktionsprinzipien Computer bei gegebener Temperatur einen inhärenten Energieverbrauch Operation haben der prinzipiell nicht unterschritten werden (heutige Computerchips sind jedoch noch weit von prinzipiellen Grenze entfernt).

Quanteninformation

Die Quantenmechanik zeigt dass Quantenobjekte eine Information enthalten die nicht über klassische Kanäle z.B. als Folge von Nullen und Einsen) werden kann. Außerdem kann man Quanteninformation nicht kopieren (ohne die Originalinformation im zu zerstören).

Die besonderen Eigenschaften der Quanteninformation ermöglichen die mit klassischer Information nicht möglich sind Quantencomputer und Quantenkryptographie .

Verwandte Themenkomplexe

Der Begriff der Information ist eng mit Fragestellungen im Themenkomplex "Wissen". Dazu gehört das Problem der Definition von Komplexität die sich über die algorithmische Tiefe informationsverabeitenden Prozesses beschreiben lässt. Weiterhin zählen hierzu über den Unterschied zwischen Zufall und Ordnung .

Informationstransport

Interessant ist es dass Information die Materie als Informationsträger gebunden ist auf elektromagnetische Wellen übertragen werden kann. Diese Information kann masselos dann im Prinzip mit Lichtgeschwindigkeit transportiert werden. Schließlich kann die Information zurück an Materiestrukturen gebunden werden. Ein Beispiel so einen Übertragungsprozess ist das Telefax . Dabei wird die Information eines bestimmte mit Lichtgeschwindigkeit über große Entfernungen transportiert und Ziel auf ein zweites Schriftstück mit exakt Informationsinhalt übertragen.

Allgemeiner: Informationstransport hängt also immer vom Informationsträger ab.

(Kritische Anmerkung: Auch während der Übertragung Informationen mit Hilfe von elektromagnetischen Wellen ist an Materie gebunden. Lediglich die Ruhemasse der der Strahlung (Photonen) ist Null. Man sollte deshalb besser von stofflosem anstelle von masselosem sprechen. Dieselbe Kritik gilt auch an einigen Stellen dieses Artikels. Es ist wahrscheinlich besser statt "Materie und Energie" "Stoff und Energie" verwenden die beide verschiedene Ausprägungen von Materie

Digitale Information

Digitale Information entsteht durch Digitalisierung beliebiger Information. Das Ergebnis sind Daten .

Obwohl für die Messung von digitalen für Informationsströme und für die Informationsspeicherung das Bit und das Byte als Basiseinheiten vorliegen wird die Informationsmenge noch gerne an Hand des jeweiligen Informationsträgers So kann man die digitale Informationsmenge die einem Buch steht leicht und anschaulich an Seitenzahl oder an der Zahl der Wörter

Definition der Information in verschiedenen Fachrichtungen

Zum Abschluss sollen hier die einzelnen und Forschungsrichtungen richtungen zu Wort kommen die ihr eigenes Verständnis der Information haben. Deutlich dabei jeweilige Ansatz auf den unterschiedlichen oben Ebenen zwischen der reinen Syntax bis zur teilweise auch mit der besonderen Betonung des von Information

Semiotik

Die Semiotik versteht unter Informationen zweckorientierte Daten die das Wissen erweitern. In älterer Literatur sind sie noch als zweckorientiertes Wissen definiert.

Informationswissenschaft

Die Informationswissenschaft verwendet den Begriff der Information ähnlich semiotischen Ansatz. Für sie sind die Begriffe Wissen und Information von zentraler Bedeutung. Information dabei Wissenstransfer bzw. "Wissen in Aktion". Information entsteht in diesem Sinne immer nur punktuell ein Mensch zur Problemlösung Wissen (eine bestimmte benötigt. Diese Wissenseinheit geht als Information aus Wissensvorrat in einen anderen über z.B. aus Datenbank in den Wissensvorrat eines Menschen. Wissen intern repräsentiert Information wird - zum besseren Verständnis den Informationssuchenden - präsentiert . ( Wissensrepräsentation - Informationspräsentation).

Ontologische Fragestellung

Nach gegenwärtigem Stand des Wissens ist Vorhandensein von Information immer an das Vorhandensein Materie bzw. Energie gebunden. Diese dienen als Informationsträger : Information ist räumliche und/oder zeitliche Struktur eines Informationsträgers und kann daher ohne diesen existieren. Inwieweit Information als dritte eigenständige Grundkomponente Materie und Energie an der Struktur des und des Lebens beteiligt ist ist nicht

Interessant ist jedoch die Beobachtung dass Universum sich zu einem Zustand hoher Entropie hinbewegt die Evolution es dagegen fertigbringt unter Einsatz von diesem Trend entgegenzuwirken lokal die Entropie zu und sehr komplexe Strukturen zu schaffen. Insbesondere der Philosophie wird daher auch immer wieder eine Richtung gedacht der Information eine eigene unabhängig von Energie und Materie zuzuschreiben. Diese findet sich zum Beispiel bereits bei Platos Ideenlehre . Würden sich Belege für die Existenz "reiner Informationen" finden lassen wären auch reine denkbar.

Weiterführende Angaben

Siehe auch

Desinformation - Digitale Information - Information neben Energie und Materie dritter Kernbegriff der Naturwissenschaften - information literacy - Informationseffizienz - Informationsmenge - Informationsparadoxon - Informationsquellen - Informationswissenschaft - Jugendinformation - Logikalie - Kommunikation - Negentropie - Neurolinguistische Programmierung - Quanteninformation - Rhetorik - Repräsentation - Signal - Unterscheidbarkeit - Wahrheit - Wortfeld Information

Literatur

"Unmathematische" Einführungen:

  • Gitt Werner : Am Anfang war die Information 2. Auflage Neuhausen / Stuttgart 1994
  • Nørretranders Tor: Spüre die Welt Rowohlt 1994; ISBN 3-4980-4637-3 ; eine verständliche Einführung in die Welt Information der Entropie und des Bewußtseins
  • Lyre Holger: Informationstheorie Wilhelm Fink Verlag München 2002; ISBN 3-7705-3446-8 Einführung in die Informationstheorie mit Ausblick die aktuellen Forschungen Lyres zur Quantentheorie der Kenntnisse der Quantenphysik werden jedoch vorausgesetzt.

Populärwissenschaftliche Einführungen mit mathematischen Beweisführungen:

  • Penrose Roger: Computerdenken Spektrum der Wissenschaften-Verlagsgesellschaft Heidelberg 1991; ISBN 3-8933-0708-7 ; Einführung in den Informationsbegriff Turingmaschinen Berechenbarkeit künstliche Intelligenz

Alle Bücher enthalten weitere Bibliografien.

Weblinks



Bücher zum Thema Information

Dieser Artikel von Wikipedia unterliegt der GNU FDL.

ImpressumLesezeichen setzenSeite versendenSeite drucken

HTML-Code zum Verweis auf diese Seite:
<a href="http://www.uni-protokolle.de/Lexikon/Information.html">Information </a>