| 1.4  Information und Kommunikation | 
          
            | 
				  
					  | 
						  
							  | 1.4.1   Information: Begriffsbestimmung, 
							  Erläuterungen | Kyb 1411 [2/7] |  |  
					  | b) Informationstheorie: Information als beseitigte 
					  Unbestimmtheit |  
					  | Die informationstheoretische Ableitung und Bestimmung des 
					  Informationsbegriffs geht vom Problem der Unbestimmtheit, 
					  Ungewissheit aus. Dieses Vorgehen lässt sich wie 
					  folgt anschaulichen:
 
 Frage 1:
 Würden Sie sich mit einem Einsatz von - sagen wir - 5,00 
					  EUR an einem Spiel "1 aus 1" beteiligen?
 
 Antwort: Sicher nicht! Und warum 
					  nicht?
 Nun, wohl deshalb nicht, weil über den 
					  Ausgang des Spiels keine Ungewissheit 
					  vorliegt! Die Mitteilung "Es wurde die '1' gezogen!" 
					  kann nicht als "Information" angesehen werden, denn dieses 
					  Ergebnis stand schon vor der Ziehung fest.
 Wir vermerken:
 Wenn zu einer Situation keine
					  Unbestimmtheit, Ungewissheit vorliegt, dann hat eine 
					  Mitteilung, dass dem so ist, keinen 
					  Informationsgehalt. Der "Wert" einer solchen Information 
					  ist gleich Null! (Dies trifft - leider - für viele 
					  "Nachrichten" zu, die täglich in die Welt gesetzt werden).
 
 Frage 2:
 In welchem Fall liegt 
					  eine erste (und kleinste) Unbestimmtheit vor?
 
 Antwort: Nun offenbar dann, wenn eine 
					  Situation zwei mögliche Ausgänge hat und jeder 
					  der beiden Ausgänge mit gleicher Wahrscheinlichkeit 
					  eintreten kann!
 Ein Beispiel hierfür ist das "Münzwerfen", 
					  bei dem die Ausgänge "Zahl" oder "Wappen" vor dem Wurf 
					  gleich wahrscheinlich eintreten können.
 Da es zwei 
					  Ausgänge gibt, beträgt die Wahrscheinlichkeit jedes 
					  einzelnen Ausganges "1/2" ("fifty-fifty).
 Die 
					  Mitteilung, dass "Zahl" (oder "Wappen") oben liegt, hat 
					  einen Wert, denn sie hebt die vorher bestehende 
					  Ungewissheit auf!
 
 Die Informationstheorie hat 
					  gezeigt, dass sich Auswahlvorgänge der skizzierten Art auf 
					  eine Folge von "Zweier-Schritten" - im Sinne des Treffens 
					  von Entscheidungen mit den Ausgängen "NEIN" oder "JA" - 
					  zurückführen lassen.
 Dabei wird dann diejenige 
					  Information, die die Unbestimmtheit in einer Situation mit 
					  zwei Ausgängen aufhebt, als Maßeinheit genutzt wird.
 "Zweier-Schritt" heißt im Englischen "Binary digit" 
					  und so entstand die Bezeichnung "Bit" als 
					  Maßeinheit der sog. metrischen Information im 
					  Sinne der kybernetischen Informationstheorie.
 
 Symbolisch kann die Unbestimmtheit in Bezug auf eine 
					  Situation A mit zwei - 
					  gleichwahrscheinlichen - mögliche Ausgänge A1 
					  und A2 wie folgt dargestellt 
					  werden:
 
 
  
 Hierbei stellt der Wert "1/2" die Wahrscheinlichkeit
					  p des betreffenden Ausgangs A1 
					  bzw. A 2 dar.
 
 Die 
					  Unbestimmtheit, die dieser Situation zugrunde liegt, wird 
					  in der Kybernetik durch die Größe Entropie 
					  (Symbol H) zum Ausdruck gebracht, wobei 
					  aus inhaltlichen und mathematischen Gründen nicht die 
					  Wahrscheinlichkeit p, sondern der 
					  Logarithmus (Symbol "log") der Wahrscheinlichkeit 
					  p verwendet wird. Dann gilt:
 
 
  
 (Das Minuszeichen vor der Klammer erklärt sich daraus, 
					  dass der Logarithmus einer Zahl < 1,0 negativ ist. Der 
					  Wert H(A) ist somit eine Zahl größer, gleich Null).
 
 Wird die Basis 2 für den Logarithmus 
					  gewählt (dyadischer Logarithmus ld), 
					  erhält man für H(A) den Wert H(A) = 1,0. 
					  Dies entspricht der Aussage, dass der Wert der Information 
					  I, die die Unbestimmtheit der skizzierten Situation 
					  aufhebt, den Wert 1,0 bit hat.
 
 Wenn 
					  eine Situation A mehr als zwei Ausgänge Ai 
					  (mit i = 1, 2, ..., n) hat und diese Ausgänge 
					  unterschiedliche Wahrscheinlichkeiten pi 
					  aufweisen,  
					  dann berechnet sich die Entropie H(A) nach der Formel
 
 
  
 Diese Größe entspricht dem Wert der Information
					  I, die die Unbestimmtheit der 
					  betreffenden Situation aufhebt.
 
 Information kann 
					  somit wie folgt definiert werden:
 |  
					  | 
						  
							  |  
 | Information (im Sinne der 
							  kybernetischen Informationstheorie) ist 
							  beseitigte Unbestimmtheit. Sie ist ihrem Inhalt nach jene reduzierte 
							  Ungewissheit, die ein Empfänger der Information 
							  als Widerspiegelung realer Gegebenheiten erhält.
 Wird durch den Erhalt einer Mitteilung die beim 
							  Empfänger ursprünglich gegebene Ungewissheit 
							  jedoch erhöht, handelt es sich um eine 
							  Desinformation.1
 |  |  
					  | 1
					  Gewünscht werden - speziell von den Medien - 
					  sachkundige Informationen, die Ungewissheiten aufheben, 
					  stattdessen erhalten wir oft "Fake News" 
					  (Desinformationen)! |  |