Studium, Ausbildung und Beruf

web uni-protokolle.de
 powered by
NachrichtenLexikonProtokolleBücherForenMontag, 18. November 2019 

Informationstheorie


Dieser Artikel von Wikipedia ist u.U. veraltet. Die neue Version gibt es hier.
Die Informationstheorie ist eine mathematische Theorie aus dem Bereich der Wahrscheinlichkeitstheorie und Statistik die auf Claude Shannon zurückgeht.

Sie beschäftigt sich mit Begriffen wie Information Entropie Informationsübertragung Datenkompression Kodierung Kryptographie und verwandten Themen.

Neben der Mathematik Informatik und Nachrichtentechnik wird die theoretischen Betrachtung von Kommunikation durch die Informationstheorie auch zur Beschreibung Kommunikationssystemen in anderen Bereichen ( Medien in der Publizistik Nervensystem in der Neurologie DNA und Proteinsequenzen in der Molekularbiologie Wissen in der Informationswissenschaft und Dokumentationswissenschaft ...) eingesetzt.

Inhaltsverzeichnis

Geschichte

Vor allem Claude Shannon lieferte in den 1940er bis 1950er Jahren wesentliche Beiträge zur Theorie der und der Wahrscheinlichkeitstheorie .

Er fragte sich wie man eine Datenübertragung über elektronische (heute auch optische) Kanäle kann. Dabei geht es insbesondere darum die vom Hintergrundrauschen zu trennen. Außerdem versucht man der Übertragung aufgetretene Fehler zu erkennen und/oder korrigieren. Dazu ist es notwendig redundante (d.h. Daten) mitzusenden um dem Datenempfänger eine Datenverifikation Datenkorrektur zu ermöglichen.

Klassische Informationskonzepte versagen teilweise in quantenmechanischen Systemen. Dies führt zum Konzept der Quanteninformation .

Die Informationstheorie stellt mathematische Methoden zur bestimmter Eigenschaften von Information zur Verfügung.

Zwischen Entropie und Information - besteht ein nichtmonotoner Zusammenhang. Ist Entropie gleich Null (regelmäßiges 100%-ig vorhersagbares Signal ) so ist der (potenzielle) Nutzwert für Organismus genauso gering wie bei der gegen strebenden Entropie eines Rauschsignals . Das Informations- Maximum liegt also grob gesprochen in einem Entropiebereich.

Es sei darauf hingewiesen dass der der Information aus der Informationstheorie keinen direkten zu Semantik Bedeutung und Wissen hat da sich diese Eigenschaften mit Verfahren nicht messen lassen.

Weitere Themen und Begriffe

Große (und meist noch ungelöste) Fragen der Informationstheorie

  • Gibt es Informationsteilchen (Infonen)?
  • Gibt es Information ohne Informationsträger?
  • Welche Formen der Enkodierung von Information Zeichen kennen wir?
  • Ist es möglich dass bedeutsame Information menschliches Zutun entsteht?
  • Gibt es für bedeutsame Information ein einheitliches Maß?
  • Wie entsteht und wie arbeitet ein System z.B. eine lebende Zelle von alleine?
  • Wie entsteht und wie arbeitet ein System mit Bewusstsein wie z.B. unser Gehirn ?
  • Wie hoch war die Entropie und Information beim Urknall ?

Literatur

siehe Quellen zur Informationstheorie

Weblinks



Bücher zum Thema Informationstheorie

Dieser Artikel von Wikipedia unterliegt der GNU FDL.

ImpressumLesezeichen setzenSeite versendenSeite drucken

HTML-Code zum Verweis auf diese Seite:
<a href="http://www.uni-protokolle.de/Lexikon/Informationstheorie.html">Informationstheorie </a>