Für Interessierte sind hier Links zu externen Informationen und einige ausgewählte Sprüche [mehr]

Informationsgehalt (Self-Assessment)

Nächste Vorherige Lösung Punkte

Bei dieser Frage geht es um den Begriff Informatik. Richtige Antworten bitte anhaken. [mehr]
Informatik ist die Wissenschaft von der systematischen Verarbeitung von Informationen.
Die Informatik hat Wurzeln in der Mathematik, Elektrotechnik und Nachrichtentechnik.
Zur Informatik gehören informationsverarbeitende Systeme (Digitalrechnern).
Zur Entwicklung von Rechenmaschinen haben die folgenden Pioniere beigetragen: Konrad Zuse (Z1 von 1937), Alan Turing, Howard Aiken (Mark I 1944)
Es geht um mathematische Zusammenhänge. Welche Aussagen sind richtig, wenn vorgegeben sei:
       x                     x
        1                     2
 y  = 2         und    y  = 2
  1                     2

 
 ld(y ) = x    und   ld(y ) = x
     1     1             2     2
Dann ist auch gültig:
              x      x       (x +x )
               1      2        1  2 
   y · y  =  2    · 2     =  2
    1   2
Dann ist auch gültig:
     ld(y · y )  = x + x
         1   2      1   2
Dann ist auch gültig ( y2 > 0 ):
         y
          1
    ld( ———— ) = x  - x
         y        1    2
          2
Dann ist auch gültig:
        n 
   ld( y  ) = n · ld(y)
Welche der folgenden Aussagen (Logarithmusformeln) sind richtig, wenn b >1 und y > 0 und ln(e) = 1 ist? [mehr]
      x
 y = b      entspricht   x = log (y)
                                b
       x
 y = 10     entspricht   x = log  (y) und  x = lg(y)
                                10
      x
 y = e      entspricht    x = log (y)  und  x = ln(y)
                                e
      x
 y = 2      entspricht   x = log (y)  und  x = ld(y)
                                2
Bei einer logarithischen Scala werden
auf der Achsen die logarithmierten Werte aufgetragen. [mehr]
Hier geht es um den Informationsgehalt eines Zeichens.
Der Informationsgehalt eines Zeichens ist seine statistische Signifikanz.
Bei einer Gleichverteilung von Zeichen sind alle Zeichen gleich.
Bei einer Gleichverteilung von Zeichen ist die Auftretenswahrscheinlichkeit für jedes Zeichen gleich.
Hier geht es um Formeln zu dem Informationsgehalt nach Claude Elwood Shannon, der als ein Begründer der Informationstheorie gilt [mehr]
Die Entropie ist ein Maß für die "Unordnung". In gewisser Weise entspricht der Informationsgehalt einem "Überraschungswert".
Gehören zu einer Nachrichtenquelle die Anzahl a von möglichen Zuständen, dann ist der Informationsgehalt I eines Zeichens xi mit der Wahrscheinlichkeit pi = p(xi)
 I (p ) = - log ( p )
  a  i         a   i
Gehören zur Nachrichtenquelle die Anzahl a = 2 mögliche Zustände, dann ist der Informationsgehalt I eines Zeichens xi mit der Wahrscheinlichkeit pi = p(xi)
 I( p  ) = - ld( p  )
     i            i
Die Anzahl der benötigten Bits (der Informationsgehalt I in Shannon) die mindestens nötig ist, um ein einzelnes Zeichen xi mit der Auftretenswahrscheinlichkeit pi = p(xi) zu kodieren, ist berechenbar mit
 I( p  ) = - ld( p  )
     i            i
Der Informationsgehalt wird im Zusammenhang mit der Formulierung von Hypothesen verwendet. Richtige Aussagen bitte anhaken.
Sehr wahrscheinlich geht "Morgen die Sonne wieder auf". Dies ist recht wahrscheinlich. Der Informationsgehalt ist gering.
"Je weniger Falsifikatoren, desto geringer ist der Informationsgehalt"
"Je größer die Anzahl der potentiellen Falsifikatoren, desto höher ist ihr 'Informationsgehalt'"
Der Informationsgehalt für statistisch unabhängige (unvorhersehbare/zufällige) Ereignisse und der Informationsgehalt für statistisch abhängige (vorhersehbare/gebundene/kontext-abhängige) Ereignisse ist gleich.
Die Entropiekodierung, Arithmetische Kodierung und die Huffman-Kodierung gehören zu den Datenkompressionstechniken [mehr]
Hier gehrt es um eine Folge x1, x2, x3, ..., xn von n statistisch unabhängig aufeinander folgenden Ereignissen.
Der Informationsgehalt Iges berechnet sich aus der Summe der Informationsgehalte I(pi) jedes einzelnen Zeichens xi mit der Auftretenswahrscheinlichkeit pi = p(xi) zu
 I    = I(p ) + I(p ) + I(p ) + ... + I(p ) 
  ges      1       2       3             n
Der mittlerer Informationsgehalt I eines Zeiches wird auch Entropie H(X) der ('binären') Nachrichtenquelle genannt. H(X) ergibt sich wegen I(pi) = - ld( pi) etwa so:
 H(X) =   p ·I(p )  + p ·I(p )  + p ·I(p ) + ...  + p ·I(p )  
           1    1      2    2      3    3            n    n
 
 H(X) = - p ·ld(p ) - p ·ld(p ) - p ·ld(p ) - ... - p ·ld(p ) 
           1     1     2     2     3     3           n     n
Für eine Gleichverteilung von n Zeichen xi gilt
  p = p(x ) = p(x ) = p(x ) = ... = p(x )
         1       2       3             n   
Der mittlere Informationsgehalt einer Zeichenkette der Länge n mit einem Alphabet aus m gleichhäufigen Zeichen ist wegen p = 1/m

            ld(m)
 H(X) = n · —————
              m
Hier geht es um die konkrete Codierung der Zeichenkette "TECHNISCHE HOCHSCHULE MITTELHESSEN"
In der URL "http://huffman.ooz.ie/?text=TECHNISCHE%20HOCHSCHULE%20MITTELHESSEN" bedeutet "%20" eine Prozentangabe für die Zeichenhäufigkeit von "space".
Die Zeichenkette "TECHNISCHE HOCHSCHULE MITTELHESSEN" hat 32 Großbuchstaben und 2 Blanks. Bei ASCII-Codierung werden für die Zeichenkette 272 Bits benötigt (ohne Stop-Byte). [mehr]
Im Internet wird oft die UTF-8 Codierung verwendet. Die Zeichenkette "TECHNISCHE HOCHSCHULE MITTELHESSEN" benötigt 34 Byte (ohne Stop-Bytes), obwohl die UTF-8 Codierung je Zeichen 1 Byte bis zu 4 Byte belegt, werden bei die UTF-8 Codierung (ohne Stop-Bytes) 34 Byte = 272 Bits verwendet. [mehr]
Eine Huffmann-Codierte Zeichenkette "TECHNISCHE HOCHSCHULE MITTELHESSEN" braucht 115 Bits [mehr]