Multimedia (Einführung)

Diese Seite hat zahlreiche Teilüberschriften. Bitte aufklappen.

⁝ Multimedia ( allgemeines )
Multimedia-Begriff

In einer digitalisierten Welt entspricht Multimedia [lat. multus = viel] Anwendungen, die mehrerer Medien, Inhalte und Diensten der Informatik, Telekommunikation, Transportkanäle, Vermittlungssysteme benutzt (computergestützte Kombination von digitalisierten Texten, Daten, Tönen, Audio, Grafiken und Bewegtbildern, Video, interaktive Dialoge). Endgeräte sind z.B. Lautsprecher, Mikrofon, Videokamera, Scanner. Die Medieninformatik ist interdisziplinär angelegt und hat insbesondere Berührungspunkte zur angewandten Informatik, zur Medientheorie, Medienökonomie, Mediengestaltung oder Mediendidaktik.

"Multimedia" wurde 1995 zum Wort des Jahres gekürt.

Multi kommt aus dem Latein und bedeutet "viel". Medium kommt aus dem Latein und bedeutet "das in der Mitte befindliche", allg. "ein Mittel", "ein vermittelndes Element zur Verbereitung von Informationen". Ein Medium ist ein Mittel zur Darstellung und Verbreitung von Text, Grafik, Bild, Sprache, Geräusche, Musik. Die Medien wenden sich vornehmlich an die menschlichen Sinne. Jedes Medium definiert Werte in Darstellungsräumen, wie z.B.

Geschriebener Text: Folge von Buchstaben,
Gesprochener Text: Folge von Druckwellen.
  • Die Klassifizierung des Multimedia-Begriffes kann aus Anwendersicht ( Nutzung, verügbare Dienste) erfolgen. (neuen Medien haben soziale Auswirkungen auf Freizeit, Bildung, Beruf, Arbeitsplatz, Berufsbilder, Verkehr und die Privatsphäre des Einzelnen, Datenschutz) Der Information- und Kommunikationsbereich wächst und wird zu einem der größten Dienstleistungssektoren ("Megatrend zur Mediengesellschaft", zunehmende medienpolitische, medienrechtliche, ökonomische und soziale Veränderungen )
  • Die Klassifizierung des Multimedia-Begriffes kann aus technischer Sicht (Grundlagen, Hardware-Software-Systeme) erfolgen. Technische Fortschritte steigen die Leistungsfähigkeit der Systeme, "unmöglich scheinendes wird mehr und mehr machbar". Die Abgrenzungen und Unterscheidungsmerkmale zwischen den einzelnen Medien verwischen sich zunehmend.
  • Die Klassifizierung des Multimedia-Begriffes kann die wissenschaftlich-technischen Grundlagen hervorheben. Die wissenschaftliche Durchdringung der Komplexität und der Vielfalt, des Machbaren und des Möglichen, der Modellfindung und vereinfachenden Klarheit, und die zunehmende Änderungsgeschwindigkeit von Innovationen stellen Herausforderungen dar.
Medien (lat.)

Medien (lat.) sind Darstellungsräume und Vermittlungssysteme für Informationen aller Art (Nachrichten, Meinungen, Unterhaltung). Medien für die Darstellung und Präsentation sind Texte, Fotographie, Grafik, Animation, Video, Interaktion. Die Möglichkeiten der Massenmedien (Massenkommunikation) wurden durch neue Medien erweitert (z.B. Interaktivität). Es gibt auditive Medien (z.B. Hörfunk, CD), audiovisuelle Medien (z.B. Film, Fernsehen, Video), Printmedien (z.B. Buch, Zeitung, Zeitschrift) und multimedialen interaktiven neuen Medien. Die Informations- und Kommunikations- Technologien bewirken einen gesellschaftlichen, ökonomisch - technischen Wandel hin zur Informationsgesellschaft. Gegenüber dem deklarativen Wissen (know - what) wird das prozedurale Wissen (know - how) immer wichtiger. Neben neuen Arbeits-, Organisations- und Qualifikations - Formen entstehen auch neue Schlüsselqualifikationen.

Zitate
Nach Kneisel gilt: "Ein Multimediasystem ist durch die rechnergestützte, integrierte Erzeugung, Manipulation, Darstellung, Speicherung und Kommunikation von unabhängigen Informationen gekennzeichnet, die in mindestens einem kontinuierlichen und einem diskreten Medium kodiert sind."

Nach Klimsa gilt: "... bedeutet 'Multimedia' zahlreiche Hardware- und Softwaretechnologien für Integration von digitalen Medien, wie beispielsweise Text, Pixelbilder, Grafik, Video oder Ton. Neben diesem Medienaspekt - Multimedialität - spielen aber auch Interaktivität, Multitasking (gleichzeitige Ausführung mehrerer Prozesse)und Parallelität (bezogen auf die parallele Medienpräsentation) eine wichtige Rolle. In diesem Zusammenhang können wir vom Integrations- und Präsentationsaspekt des Multimediabegriffs sprechen. Diese Aspekte der technischen Dimensionen des Multimediaverständnissen müssen um weitere Aspekte ergänzt werden: die der Dimension der Anwendung. Erst die Anwendung der multimedialen Technik konkretisiert den Begriff. So kann nicht jede beliebige Kombination von Medien als 'Multimedia' bezeichnet werden. Ein Personalcomputer mit Tonausgabe und einem eingebauten CD-Rom Laufwerk ist genauso wenig ein Multimediasystem wie ein CBT Programm (...), das neben Text auch Bilder und Grafiken darstellt. Sicherlich sind aber neben der Multimediatechnik auch der Nutzungskontext und die Funktionalität von Multimedia stets in die Debatte mit einzubeziehen."

Zu den Chancen und Risiken dieser Informations- und Kommunikationstechnologien sagt die Enquête-Kommission "Entwicklung, Chancen und Auswirkungen neuer Informations- und Kommunikationstechnologien in Baden-Württemberg" (aus dem Vorwort des Enquêteberichts):

"Unsere Gesellschaft weiß oder ahnt zumindest, daß die neue Informations- und Kommunikationstechnik ihr gewohntes Leben geradezu revolutionär verändern kann. In einer geordneten Gemeinschaft mit ihren mühsam errungenen und immer wieder bedrohten Besitzständen erzeugt diese Erwartung zunächst eher Unsicherheit und Unruhe. Deshalb muß die Akzeptanz derart umwälzender Technologien erst im öffentlichen Diskurs errungen werden. Akzeptanz setzt Akzeptabilität voraus. Die Menschen müssen nach Abwägung der erkennbaren Wirkungen davon überzeugt sein, daß die Möglichkeiten, die aus solchen technischen Innovationen erwachsen, für sie nützlich sein können. Die Enquetekommission hat mit ihrem gemeinsam getragenen Bericht einen wichtigen Beitrag zur gesellschaftlichen Konsensbildung geleistet. Es ist gelungen, die Erkenntnisse und Erfahrungen aus den unterschiedlichen beruflichen Lebenswelten ihrer Mitglieder so zusammenzubringen, daß am Ende gemeinsam getragene Bewertungen und Empfehlungen entstehen konnten. Der Enquetekommission ist es ein wichtiges Anliegen, diese gesellschaftliche Konsensbildung in einem organisierten öffentlichen Diskurs fortzusetzen und in öffentlicher und privater Partnerschaft die begonnenen Projekte erfolgreich weiterzuentwickeln und neue Anregungen aufzunehmen ...
Medien und Recht

Multimediaproduktionen unterliegen dem Urheberrecht.

Sichten auf Multimedia von Mensch, Hardware, Wissenschaft

Auf allen Ebenen sind Erneuerungen und Umbrüche erkennbar (technische und organisatorische Möglichkeiten, Informationstechnologien, Individualkommunikation, Bildtelefon oder Telefax, Kabel- und Satellitenfernsehen Videotext, das Abrufen von Texten, Nachrichten, Wettervorhersagen, Sportmeldungen, Videokonferenzen, Büro- und Wissenschaftskommunikation, Benutzeroberflächen Austausch von Texten, Bildern, Audio- und Videosequenzen, usw.)

Anwendungen
Anwender-
Nutzung
Lernen Design Benutzer-
schnittstelle
Dienste Inhalts-
Analyse
Doku-
mente
Sicherheit ... Synchronisation Gruppen-
Kommuni-
kation
 
Software-
Hardware-
Systeme
  Datenbanken Programmierung  
Medien-Server Betriebssysteme Kommunikation
Optische Speicher Dienstgüte Netze
 
Wissen-
schaftliche-
technische
Grundlagen
Rechner-
Architektur
Kompression
Bilder
Grafik
Animation Video Audio
(Musik,
Sprache)

Multimedia-Aspekte (Pädagogisch-,Technologische-, Interaktive-, Kunst)
Multimedia-Aspekte
Pädagogische
Aspekte
Die parallele Präsentation von zusammengehörenden Inforamtionen mit verschiedenen Medien kann die Wissensaufnahme erleichtern. Kommen Informationen über verschiedene Sinnesorgane (Kanäle), so kann es "Synergien" geben (naive Summentheorie nach Bernd Weidenmann).
Die Erstellung von Lehr- und Lern - Produkten erfordert vielfach eine Evaluation der Lehr - Darbietung und eine neue Strukturierung der Inhalte. Multimedia ist nicht auf eine bestimmte Lernpsychologie (Behaviorismus, Kognitivismus, Konstruktivismus) festgelegt. Modernes Edutainment zeichnet sich durch Aufmerksamkeitslenkung, Motivation, Erziehung zur Exaktheit, sofortige Korrektur und Hilfe, Grad der Anonymität, individualisiertes Lernen, Selbstvergleich und Lernkontrolle, Zeitersparnis, Interaktivität, Flexibilität, Wiederholbarkeit der Lernschritte, Feedback, Adaptivität und projektorientiertes Lernen aus.
Technologische
Aspekte
Bei hinreichender Rechnerleistung (Geschwindigkeit, Speicherkapazität, Ausführungsgeschwindigkeit) können Multimedia - Produkte entwickelt, netz-weit verteilt und benutzt werden. Die Multimedia - Anwendungen werden in der Ausbildung, Beruf, Weiterbildung, Werbung, Unterhaltungsindustrie, usw. eingesetzt. Trotz der Vortschritte bei Rechen- und Speicherkapazitäten und der Ausführungsgeschwindigkeiten werden Kompressionsverfahren z.b. für Bild- (gif/jpg), Ton- (mp3) und Video- (mpeg/avi) Verarbeitung benötigt.
Interaktive
Aspekte
Der interaktive Aspekt von Multimedia ermöglicht dem Betrachter eine individuell zugeschnittene Wissensvermitttlung sowie die erfahrungsorientierte Aufnahme von Inhalten. Diese Vorteile werden insbesondere durch Lernprogramme (E-Learning, Computer Based Training) erschlossen. Die vielfältige Medien-Erstellung soll mit Autoren-Software vereinfacht und verbesserter werden. Die Entwicklung und Produktion von Multimedia - Anwendungen erfolgt i.a. in kleinen Gruppen, die eine informationstechnische und institutionelle Infrastruktur benötigt (Fachpersonal, Multimedia - Labor). Der interaktive Aspekte zeigt sich z.b. bei Video - Konferenzen, Stereo Graphics mit Brille, Simulation technischer Vorgänge, usw.
Kunst
Aspekte
Mit dem Multimedia-Möglichkeiten hat sich auch zu eine eigene, digitale Kunstform entwickelt, die auch Einfluss auf die kommerzielle Entwicklung von neuen Inhalten hat. Künstlerische Multimedia-Referenzwerke gibt es seit etwa 1993 (Peter Gabriel,Laurie Anderson, Pipilotti Rist).
Medien-Didaktik (ab Comenius)

Multimedia kann unterhaltend sein, die Motivation zum Lernen und Wissenserwerb erhöhen, und den Anschein von Realitätsnähe haben und zu einer oberflächlichen Rezeptionsweise verführen, was einem tieferen Verständnis abträglich ist.

Die "Mediendidaktik" hat zurück liegende Wurzeln wie z.B. Johann Amos Comenius (Jan Ámoš Komenský, 1592-1670). Comenius verstand die Schöpfung als einen Prozess, der aus gestaltloser Einheit in Gott zur gottgeschaffenen, gottferneren Mannigfaltigkeit der Welt führt und dann zurück zur göttlichen Einheit im Licht führt und entwickelte in der "Großen Didaktik" Erziehungsziele und -methoden für den Aufbau eines Schulsystems für Kindheit und Jugend (allgemeine Schulpflicht, muttersprachlichen Unterricht). Schule soll in gelöster Atmosphäre grundlegend "allen alles" lehren etwa 7.-12. Lebensjahr: Muttersprachschule, 13.-18. Lebensjahr: Lehre oder Lateinschule, 19.-24. Lebensjahr: Akademie. Sein Werk: "Die sichtbare Welt in Bildern" gilt als Ahnherr aller Kinderbilderbücher und erste Enzyklopädie für Kinder. Sein pädagogisches Hauptwerk ist die Didactica magna (Große Unterrichtslehre), die bis heute zu den Standardwerken der Didaktik zählt. Pädagogik ist für ihn die Kunst, allen alles lehren zu können. Als Lernprinzipien gelten: Lernen durch Tun, Anschauen geht vor sprachlicher Vermittlung, Muttersprache vor Fremdsprache, das eigene Vorbild vor die Worte. Comenius forderte in seiner Schrift "E Scholasticis Labyrinthis Exitus in planum" unter anderem: mm-naive-summe.jpg
Also sollen auch die Schulen alles den eigenen Sinnen der Lernenden darbieten: damit sie alles selbst sehen, hören, riechen, schmecken, berühren, was gesehen und erfahren werden kann.
Wahrscheinlich geht auf Aussagen von Comenius (Begründers der Mediendidaktik) die naive Summentheorie zurück (kausalen Zusammenhang zwischen Lerneffekt, Medienvielfalt und Medienmenge), die von dem Psychologen Bernd Weidenmann heftig kritisiert wird. Interaktive Aspekt von Multimedia ermöglicht eine individuell zugeschnittene Wissensvermitttlung und eine erfahrungsorientierte Aufnahme von Inhalten (E-Learning, Computer Based Training).
Medien-Anwendungen

Die Informationstechnologien richten sich an die Sinne des Menschen. Technischen Entwicklungen sind auf den Menschen ausgerichtet und versuchen in geeigneter Form diese anzusprechen (Bildtelefon oder Telefax, Kabel- und Satellitenfernsehen, Videotext, das Abrufen von Texten, Nachrichten, Wettervorhersagen, Sportmeldungen, Videokonferenzen, Büro- und Wissenschaftskommunikation, Benutzeroberflächen, Austausch von Texten, Bildern, Audio- und Videosequenzen, usw.). Multimedia-Anwendungen versuchen die Vielfalt der Sinne des Menschen geeignet einzubeziehen.

In zahlreichen Gebieten vermehren sich die Multimedia - Anwendungen (Informationssysteme, Telekommunikation, lokale Netze, Informationsmanagement, Mensch - Maschine - Kommunikation, Medizinische diagnostische und therapeutische Verfahren, Simulation technischer Vorgänge, Präsentationstechniken, Mustererkennung, Bildverarbeitung, Kommerzielle Anwendersysteme, Softwaretechnik).

Medien-Anwendungen in Schlagworten
Einige Schlagworte sind
  • Virtual - Reality (z.B. 3D, VRML, SVG, Crystal-Eyes),
  • Computer Based Training, Computer Assisted Learning ( Computerunterstütztes Lernen),
  • Hochschulen auf dem Weg in die Informationsgesellschaft,
  • Lernen mit dem Internet, Entwicklung von interaktiven, visuellen, akustischen Informations- Materialien,
  • Wissenschaftliche Weiterbildung, Aufbaustudiengänge, interaktiven Angebotes für die Ingenieuren - Weiterbildung, Multimedia und Ergänzungsstudium,
  • Virtuelle Universität, Tele - Teaching, Fernstudien - Angebote, Virtueller Professor, Virtual College, Virtuelles Lernzentrum,
  • interaktives Skript, interaktive Multimedia-Dokumente für Teilzeitstudenten, Teilzeitstudium und Multimedia, tutoriell betreutes Lernen mit Multimedia, Lernkomponenten für das Selbststudium,
  • Erwachsenenbildung, Kommunikationspädagogik mit Präsenz-Übungen,
  • Multimedia - Edutainment, usw.
Typische moderne Multimedia - Lehr- und Lern - Formen hängen mit den folgenden Gebieten zusammen:
  • World Wide Web Client - Server - Authoring (u.a. HTML),
  • Cross Media Publishing (u.a. Java Script),
  • Open Inventor - Programming (u.a. VRML),
  • Multimediales Teleteaching (u.a. White - Board),
  • Intelligente Lehrbücher(u.a. akustischer Hyphertext)
Trainingsmethoden und Multimedia

Abkürzung für Computer Based Training. Es gibt zahreiche Abkürzungen, die ähnliche Sachverhalt wiedergeben:

  • CAI: Computer Assisted Instruction
  • ICAI: Intelligent CAI, wissensbasierten Ansätze)
  • ITS: Intelligent Tutoring Systems, tutoriellen Systeme
  • CUU: Computerunterstützter Unterricht, Deutschland

Die Begriffe Instruction, E-Learning (Michael Kerres) und Training häufig werden oft synonym verwendet. Der Unterschied eines computergestützten sowie eines computerunterstützten Systems wird durch die englischen Begriffe Computer Assisted und Computer Based bzw. Computer Aided ausgedrückt. Zum Teil werden noch einge ganze Reihe weiterer Abkürzungen verwendet (CAI, CAL, CAT, CBI, CBL, CBT = Computer Based Training, WBT = Web Based Training, Virtuelles Klassenzimmer) verwendet. Dieser Artikel geht speziell auf di

Computer Based Training (CBT) als Multimedia-Anwendung

Computer Based Training-Systeme, d.h. computerbasierte Lehr-/Lernsysteme stellen eine Ergänzung zu traditionellen Lernmitteln dar und können komplexe medizinische Sachverhalte durch Verbindung von Text, Bild, Ton, Video und Animation besonders gut veranschaulichen. Entsprechend dem Grad an Interaktivität zwischen CBT-System und Anwender werden unterschieden:

  • Präsentations- und Browsingsysteme, die Informationseinheiten in einem semantischen Netz multimedial präsentiert können
  • Tutorielle Systeme, die auf Aktionen des Lernenden helfend und beurteilend reagieren und sich dem Lernfortschritt angepassen
  • Simulationssysteme, in denen z.B. Patientenprobleme oder Fälle simuliert werden können, an denen der Medizinstudierende ohne Leistungs- und Zeitdruck diagnostische und therapeutische Massnahmen praktizieren kann, bevor er am Menschen agiert

Der Begriff CBT-System wird bewusst verwendet, um anzudeuten, dass medizinische Lernprogramme manchmal spezielle Hardware benötigen, um überhaupt lauffähig zu sein. Mit dem Begriff System wird dieser Sachverhalt ausgedrückt.

⁝ Multimedia und Physik
Akustik

Akustik ist die Lehre vom Schall.

Der Begriff Schall kommt vom althochdeutsch scal und gehört zu scellan ( tönen, lärmen). phon... (phono...) ist griechisch und bedeutet schall..., laut..., ton... Phonographie (Schall|aufzeichnung) ist die Speicherung von Schallvorgängen auf einem Träger, wobei Mikrofone (Sensoren) die Schallvorgänge in elektrische Signale umwandeln.

In der Antike glaubten die Griechen, die Musik repräsentiere die angewandten Zahlen. Die Pythagoreer entdeckten, daß zu einer Oktave ein Saiten-Längen-Verhältnis 1 : 2 gehört. Harmonien wurden bei ganzzahligen Frequenzverhältnissen erwartet.

Akustik (ab 16.Jh.)

Ab dem 16.Jahrhundert wurden systematische, wissenschaftliche Experimente durchgeführt. Im Jahr 1660 zeigte Robert Boyle, dass die Ausbreitung des Schalles an ein gasförmiges, flüssiges oder festes Medium gebunden ist. Die mathematische Beschreibung der Theorie vom Schall begann mit dem englischen Mathematiker und Physiker Isaac Newton. Sein epochales Werk trug den Titel "Philosophiae Naturalis Principia Mathematica" (Mathematische Prinzipien der Naturphilosophie) und erschienen 1687. Newton zeigte, dass die Ausbreitung des Schalles in einem fluiden Medium nur von den physikalischen Eigenschaften dieses Mediums abhängt (Dichte und vom Elastizitätsmodul).

Im 16. bis 18. Jahrhundert wurden mit Echo-Zeitmessungen (Marin Mersenne ) die Schallgeschwindigkeit ermittelt.

Das 18.Jahrhundert wurde die Theorie des Schalles ausgebaut. Die Infinitesimalrechnung erwies sich als leistungsfähiges Verfahren. Die französischen Mathematiker Jean le Rond d'Alembert und Joseph Louis Lagrange sowie der holländische Mathematiker Johann Bernoulli und der Schweizer Mathematiker Leonhard Euler lieferten in diesem Zusammenhang die mathematischen Grundlagen. 1822 konnte Jean-Baptiste Joseph Fourier die harmonische Analyse des Schalles durchführen. Der italienische Geiger Giuseppe Tartini entdeckte 1740 die Schwebungen. Im 19. Jh. wurden Geräte wie das Stroboskop, das Stethoskop und die Sirene entwickelt. Der Physiker Johann Heinrich Scheibler nahm 1834 exakte Frequenzmessungen vor und ordnete dem Ton a1 (Kammerton A) die Frequenz 440 Hertz zu. Dadurch wurde ein einheitlichen Musik-Standard für die Tonhöhe eingeführt.

Telefon und Mikrophon

Telefon und Mikrophon sowie verschiedene Arten von Plattenspielern wurden erfunden.

Mit elektronische Oszillatoren können Wellen verschiedenster Form erzeugen werden. Diese lassen sich mit elektromagnetischen oder piezoelektrischen Effekten in hörbaren Schall umwandeln. Umgekehrt kann ein Mikrophon Schallwellen in elektrische Wellen umwandeln.

Für militärische Zwecke wurde im 2.Weltkrieg das Sonar entwickelt, das heute zur Untersuchung von Meeresströmungen und -schichten sowie zur Untersuchung des Meeresbodens verwendet wird.

Schallwellen

Beim Umgang mit technischen Einrichtungen werden menschlichen Sinnesorgane benötigt (z.B. Hören, Schall, Schallwellen, Wellenausbreitung als physikalische Grundlage für die Beschreibung audiovisueller Szenen; oder Sehen, Licht, elektromagnetische Wellen, Wellenlänge = 380...780 nm;)

Die Ausbreitung von elektromagnetischer Wellen in Luft, Glas, Vakuum mit den Eigenschaften: hochtransparent, keine Absorption der Lichtenergie; isotrop, gleiche Ausbreitungsbedingungen in alle Richtungen; nicht magnetisch; quellenfrei; linear, alle Eigenschaften hängen nicht von der Intensität ab. Schallwellen können reflektiert und gebrochen werden, auch Beugung und Interferenz lassen sich unter geeigneten Bedingungen nachweisen. Bei der Ausbreitung von Schall hängt die genaue Form eines Schallfeldes von den Anfangsbedingungen, den Randbedingungen, den Schallquellen ab.

Hier einige historische Daten zu Schalluntersuchungen und zu elektromagnetische Wellen:

Historisches zu Schallwellen
Schallwellen
570-497 v.Chr. Pythagoras: Zusammenhang zwischen Tonhöhe und Saitenlänge
1452-1519 Leonardo da Vinci: Schall als Luftschwingung
1636-1638 M. Mersenne,Galileo Galilei: Zusammenhang zwischen Tonhöhe und Frequenz
1629-1695 Ch. Huygens: Huygenssches Prinzip
1788-1817 A. Fresnel: Beugung von Schallwellen
1821-1894 H. von Helmholtz: Spektralanalyse mit Resonatoren
1877/78 Lord Raleigh: "Theory of Sound, theoretische Grundlagen der Akustik
1868-1919 W. Sabine: Grundlagen der Raumakustik
1863-1923 A. Webster: Theorie akustischer Hörner
Elektromagnetische Wellen
1669 I. Newton; Korpuskulartheorie, Licht als Teilchenstrom
1677 Ch. Huygens: Wellentheorie, Licht als Wellenvorgang
1802 Th. Young: Beweis der Wellentheorie anhand von Beugungserscheinungen
1871 J. Maxwell: Maxwellsche Gleichungen, Licht als elektromagnetische Wellenvorgang
1888 H. Hertz: Experimenteller Nachweis elektromagnetischer Wellen
1900 M. Planck: Quantentheorie
1926 E. Schrödinger: Wellenmechanik, Dualismus Welle-Teilchen
Pythagoras(ca.570-500 v.Chr.)
Pythagoras(ca.570-500 v.Chr.) suchte die Harmonien in den Gewichtsverhältnissen ( Saitenspannungen) zu ergründen (hier abgebildet: Pythagoras, Erforscher der Harmonie. Italienischer Holzschnitt, 1492). Die Pythagoreer glaubten an "zahlreiche" Mysterien (mathematische Ordnung der göttlich geschaffenen Welt, symbolische Deutung von Quadrat- und Primzahlen, Proportionen kenzeichnen die Ordnung und Harmonie des Universums, Erde als Kugel, Intervalle von Planeten-Entfernungen entsprechen harmonischen Klängen von Saiten).
pitagoras.jpg
Wellengleichung Lösung
x = Ort, t = Zeit, c = Ausbreitungsgeschwindigkeit, p(x,t) = Schalldruck mit Randbedingunge: p(0,t) = p(l,t) = 0 wird
p(x,t) = p[0]*exp(i*2pi*f*t)*sin(m*pi*x/l);
m=1 (blau), m=2 (grün), m=3 (rot)
wellen-gleichung.jpg wellen.jpg
Mechanische Schwingungen

Mechanische Schwingungen (eines materiellen elastischen Mediums) können die umgebenden Luftmoleküle in Bewegung bringen und damit Luftschwingungen erzeugen. Schwingungen im Frequenzbereich zwischen 16 Hz und 20000 Hz werden als Hörschall bezeichnet.

Die genaue Form eines Schallfeldes hängt von Anfangsbedingungen, Randbedingungen, Schallquellen ab.

Schwingungen unterhalb des Hörbereichs (< 16 Hz) heißen Infraschall, oberhalb ca. 20 kHz Ultraschall. Bei Frequenzen über etwa 1 MHz spricht man von Hyperschall. Ultraschallwellen werden in der Medizin und zur zerstörungsfreien Werkstofprüfung benutzt.

Der Hörschall kann durch eine mechanische Schwingungen ( Schallschwingungen) erzeugt werden. Die Schallwellen können in einem materiellen elastischen Medium weitergeleitet werden.

Schall wird in die folgenden Frequenzbereiche unterteilt:

Infraschall:  1  Hz -  16  Hz
Hörschall  : 16  Hz -  20 kHz  
Ultraschall: 20 kHz -   1 MHz 
Hyperschall:  1 MHz - 100 MHz
Schallausbreitung

Die periodisch von ihrer Erregungsquelle ausgehenden Schwankungen der Massendichte können sich als Schallwellen ausbreiten. Das Echolot ( Schiffsortung) benutzt Infraschall und Hörschall zur Bestimmung der Meerestiefe. Die zerstörungsfreie Werkstoffprüfung benutzt den Ultraschall, die medizinische Diagnostik den Hyperschall.

machscher-kegel.jpg Schallwellen (Schall) breiten sich in einem Medium aus. In Gasen und Flüssigkeiten treten nur longitudinale Schwingungen auf ( periodische Druck- und Dichteänderungen), in festen Körpern longitudinale oder transversale Schwingungen der Gitterbausteine um ihre Ruhelage Die Schallgeschwindigkeit in anisotropen Kristalle hängt von der Ausbreitungsrichtung ab. Der Wert der Schallgeschwindigkeit hängt von den Deformationseigenschaften des Ausbreitungsmediums ab ( ändert sich u.a. in Gasen mit dem Druck, der Dichte und der Temperatur ). Die Schallgeschwindigkeit für Luft bei 15ºC (Bodennähe) beträgt etwa 340m/s, bei 50ºC (10000 m Höhe) etwa 300m/s.

Flugzeuge, die mit Überschall fliegen bilden den Machschen Schall-Kegel. Die Mach-Zahl entspricht dem Quotienten der aktuellen Geschwindigkeit zur Schallgeschwindigkeit in Luft.

Hörbarer Schall wird duch die Luft weiter geleitet. Im Jahre 1660 hängte Robert Boyle eine Glocke in einen (beinahe) luftleeren Raum und konnte zeigen, daß die Schallausbreitung ein Medium (Luft) benötigt. Die Verdichtung / Verdünnung der Luftteilchen pflanzt sich wellenförmig fort. Die Schall-Geschwindigkeit c [ m/s] hängt mit der Frequenz f [ Hz = 1/s ] und der Wellenlänge λ [ m ] gemäß

      c = f . λ

zusammen. Bei 20° Celsius (T = 293° Kelvin) ist die Schall-Geschwindigkeit in Luft c = 331.5* sqrt(T / 273) m/s = 343 m/s, näherungsweise:

      c = 331.4 + 0.6 * °Celsius [m/s] in Luft
Gas = Air Air Hydrogen Carbon
dioxide
Helium Water
vapor
Temperature (°C) = 0 20 0 0 20 35
Speed c in m/s = 331.5 344.0 1270.0 258.0 927.0 402.0

In flüssigen oder festen Stoffen ist die Ausbreitungs-Geschwindigkeit für Schallwellen grösser. Für dünne, stabförmige Festkörper gilt c = sqrt ( Elastizitätsmodul / Dichte). Mit Schall-Leistung P [ W ], Schall-Druck p [ N/m^2 ], Schall-Intensität I [ W/m^2 ], Auftreff-Fläche A [ m^2 ] ist

P = I . A mit I = p^2 / c / ???

Bei 20° Celsius ist die Dichte von Luft = 1.19 kg/m^3 und c = 343 m/s und somit die Zahlengleichung

I = p^2 / 408 mit p in [ N/m^2 ] , I in [ W/m^2 ]</td>

Die Schallintensität ist proportional zum Schalldruck.

Schallwellen können an Oberflächen reflektiert werden (Echo, Parabel-Fläche mit Quelle im Brennpunkt, Ellipsen-Fläche mit Mikro im Brennpunkt). Manche Materialien reflektieren nur einen geringen Schallanteil (Schallabsorption). Schallwellen können an Hindernissen gebeugt werden, besonders bei tiefen Tönen.

Doppler-Effekt

Bewegt sich eine Schallquelle (Frequenz f) mit der Geschwindigkeit v auf den Beobachter zu, so registriert der Beobachter eine geänderte Frequenz fb:

fb = f / (1 - v/c)

Beispiele: c = Geschw. der Schallausbreitung = 340 m/s

v in  m/s : 0.0 |  5.6  |  27.8  |  83.3  |
v in km/h : 0.0 | 20.0  | 100.0  | 300.0  |
fb/f      : 1.0 |  1.02 |   1.09 |   1.32 |
Brechung

Der Schall breitet sich von der Quelle (bei gleichmäßiger Dichte des Mediums) geradlinig aus. Auf die Brechung ist es u.a. zurückzuführen, dass man mit dem Wind besser hören kann als gegen den Wind. Die Windgeschwindigkeit ist in großen Höhen allgemein viel größer als nahe am Erdboden. Daher wird eine Schallwelle, die sich schräg nach unten in Windrichtung ausbreitet, zum Boden hin und eine gegen den Wind gerichtete Welle vom Boden weg gebrochen. Schallwellen unterliegen ebenso der Reflexion, und es gilt auch hier das allgemeine Gesetz, dass der Reflexionswinkel gleich dem Einfallswinkel ist.

Auf der Schallreflexion beruht die Erscheinung des Echos. Beim Sonar wird die Reflexion von Schallwellen im Wasser ausgenutzt. Ein Megaphon hat die Form eines Trichters; an dessen Wänden werden die weiter nach außen gerichteten Schallwellen nach innen reflektiert, so dass der abgestrahlte Schall in der gewünschten Richtung stärker gebündelt wird. Ein Hörrohr ist ein in umgekehrter Richtung verwendeter Trichter.

Beugung

Beim Schall gibt es auch das Phänomen der Interferenz.

beugung.jpg Huygenssches Prinzip (1690): Jeder von einer Wellenbewegung erfasste Punkt wird selbst zum Ausgangspunkt einer Kugelwelle:
Raum und Nachhall

Die Nachhall - Zeit gibt die Dauer an, in der die Intensität um -60 dB ( dezi - Bell) abgesunken ist. Aus

L := 20 * lg (I / I0) = -60 folgt I / I0 = 1 / 1000
Der Nachhall-Anteil von 0.1 % wird nicht störend wahrgenommen.

Für klassische Musik ist eine längere Nachhall-Zeit wohlklingender. Dagegen sollen Räume für Pop-Musik-Darbietungen kürzere Nachhall-Zeiten haben. Bei Sprache ist Nachhall stets ungünstig.

Lautstärke

Die Empfindungsschwelle p0 für das Gehör ist festgelegt zu p0 := 2*10^5 N/m/m bei 1000 Hz. Ein Schalldruck p ergibt die Lautstärke L [ phon ]

L := 20 * lg (p / p0)
Die Empfindungsschwelle p0 des Ohres ist von der Frequenz abhängig. Wegen I =p^2 / 408 mit p[ N/m^2 ] , I [ W/m^2 ] ergibt sich eine Empfindungsintensität
I0 = p0^2 / 408 = 2*10^5. 2*10^5 / 408 = 0.98 10^-12 [ W/m^2 ].
Die DIN 45.630 verwendet I0 = 10^-12 [ W/m^2 ].

Die Lautstärke wird in phon oder dB gemessen. An der Schmerzgrenze ist der Schall etwa 10^9 mal größer als der schwächste, gerade noch hörbare Schall.

Lautstärke und Phon (dB)

Lautstärke
[ phon = dB ] lautstaerke.gif Unter der Dynamik D [ dB ] verstehen wir D := 10 lg (Pmax / Pmin) = 10 lg (Imax / Imin) = 20 lg (pmax / pmin)

wobei Pmax [ W ] die maximale Schalleistung und pmax der maximale Schalldruck [ N/m^2 ] ist. Wirken gleichzeitig mehrere gleichartige Schall - Quellen Li, so ergibt sich die gesamte Lautstärke Lges zu:
Lges = 10 . 10^(Li/10)

⁝ Multimedia und Mathematik
Sinuston
Harmonische Welle y(t) := a . sin(2.π.f.t)
mit Amplitude a = 1 und den
Oktav-Frequenzen f = 110, 220, 440, 880 Hz
f=110 Hz
T=1/110 sec
f110.gif zeigt 110 Hz
f=220 Hz
T=1/220 sec
f220.gif zeigt 220 Hz
f=440 Hz
T=1/440 sec
Kammerton a
f440.gif zeigt 440 Hz
f=880 Hz
T=1/880 sec
f880.gif zeigt 880 Hz
Frequenz-Spektrum bei f = 110, 220, 440, 880 Hz
Amplituden = 1 spektrum1.gif
Phasenverschiebung
Harmonische Welle y(t) := a . sin(2.π.f.(t-t[0]))
a = 1, f = 110 Hz
t[0]=0.000 sec f110-000.gif zeigt 110 Hz
t[0]=0.001 sec f110-001.gif zeigt 110 Hz
t[0]=0.002 sec f110-002.gif zeigt 110 Hz
t[0]=0.003 sec f110-003.gif zeigt 110 Hz
Ein-Ausschwingen
Harmonische Welle mit Ein- Ausschwingen
y(t) := a . exp(- t.t.k) . sin(2.π.f.t)
a = 1, f = 110 Hz, k=10000
Hüllkurve
exp(- t.t.k)
f440e-tt10000.gif zeigt 110 Hz
genähertes Spektrum
f= 209.4, a=0.12
f= 418.8, a=0.20
f= 628.2, a=0.30
f= 837.6, a=0.20
f=1047.0, a=0.12
spektrum2.gif
Modulation

Werden 2 Töne mit den Frequenzen f1, f2 durch ein nichtlineares Übertrgungsmedium beeinflußt, so entstehen Kobinationstöne mit den Frequenzen m . f1 + n . f2 und m . f1 - n . f2.

Schwebung

Bei der Schwebung liegen die beiden Frequenzen f, (f+df) eng beieinander. Die Summe der beiden sin()-Funktionen sin(f), sin(f+df) kann zerlegt werden. Der Faktor cos(π.df.t) entspricht einer Änderung der Amplitude und df ist die Schwebungsfrequenz.

 sin(2.π.f.t) + sin(2.π.(f+df).t)  =  cos(π.df.t) . 2.sin(2.π.(f + df/2).t)

Es ist:

 sin(2.π.f.t) + sin(2.π.(n.f+df).t) = sin(2.π.f.t) +
                                        sin(2.π.n.f.t).cos(2.π.df.t) + 
                                        cos(2.π.n.f.t).sin(2.π.df.t)

Schwebung (grafisch)

Das folgende Beispiel zeigt die Überlagerung von y1(t), y2(t) zu y1(t) + y2(t). Die Frequenzen sind f1=440 Hz, f2 = 907.5 = 880 + 27.5 = 2.440 + 440/16 Hz.

Schwebung von Harmonische Wellen
y1(t)=a1.sin(2.π.f1.t)
y2(t)=a2.sin(2.π.f2.t)

a1 = 1.00, f1 = 440.0 Hz,
a2 = 0.38, f2 = 907.5 Hz
schwebung1.gif
y1(t) + y2(t) =
schwebung2.gif

Werden 2 Töne mit den Frequenzen f1, f2 durch ein nichtlineares Übertrgungsmedium beeinflußt (modeliert), so entstehen Kobinationstöne mit den Frequenzen m . f1 + n . f2 und m . f1 - n . f2.

Achtung!
Die Schwebung sollte nicht mit der Modulation verwechselt werden.

Tonsignal als Funktion der Zeit (Stimmgabel, Flöte)
Stimmgabel Flöte
stimmgabel.gif floete.gif
Ton-Klang-Geräusch-Rauschen

Harmononische, reine Schwingungen mit Frequenzen zwischen etwa 16 und 20000 Hz werden als Ton, periodische, aufeinander abgestimmte sinusförmige Schwingungen als Klang, unregelmäßig überlagerte Schwingungen als Geräusch empfunden.

  • Ton: (harmonische Schwingung, periodische, sinusförmige, A*sin( 6.28*f*t), Sinusgenerator, Tonhöhe f, Tonstärke A)
  • Klang (mehrere Töne, deren Frequenzen in einem ganzzahlien Verhältnis stehen)
  • Oktave (bezeichnet ein Freuquenzverhältnis von 2 : 1)
  • Oberwellen (z.B. Saite schwingt zusätzlich zur Grundschwingung mit diskretes Oberwellen, charakteristische Tonbeimengungen, die bei Instrumenten meist in ganzzahligen Frequenz-Verhältnissen auftreten)
  • Klangspektrum (Darstellung von Musik über der Frequenz, Oberwellen-Spektrum)
  • Geräusch: Unter einem Geräusch versteht man ein komplexes Schallereignis, das aus sehr vielen verschiedenen Frequenzen zusammengesetzt ist, die in keiner harmonischen Beziehung zueinander stehen (z.B. laufender Motor, zusammenhängende, dichtliegene Anteile im Freuenz-Spektrum).
  • Rauschen (kontinuierliche Anteile im Spektum)
  • Weißes Rauschen: enthält alle Frequenzen (so wie "weißes" Licht alle Spektralfarben enthält)
  • Modulation, Schwebung
Klangeindruck

Musik kann den Intellekt "tunneln" und unittelbar in der Psyche wirken. Der Klangeindruck einer akustischen Darbietung hängt von vielen Faktoren ab: der Lautstärke, den Tonhöhen, der Anzahl von Ereignisse, der Schallrichtung, dem Nachhall, usw.

    Einflußfaktor
(Anzahl von ...)
Anzahl der gleichzeitig
auftreffenden Ereignisse
hat Einfuß auf
Klangfülle Schallquellen
Instrumente
Sprecher
Geräusche
Klangfarbe Obertöne
Nebengeräusche bei
der Schallerzeugung
Richtungs-,
Entfernungs-
und Raum-
Effekte
Unterschiede in der
Laufzeit zwischen den
Quellen
Unterschiede in der
Itensität zwischen den
Quellen
Fourier-Transformation (anschaulich)

Ein Signalverlauf kann auf unterschiedliche Weise betrachtet werden. Die Kurve x(t) stellt den Signalverlauf über der Zeit dar. Solche Diagramme zeigen, wie sich das Signal mit der Zeit ändert. Eine andere Darstellung ist, das Signal durch die darin entahltenen Frequenzen darzustellen. Dies entspricht einer Zerlegung des Signales x(t) in harmonische Anteile, wie z.B.

fourier4.jpg mit ω[k] = 2.π.f[k]

sind die Frequenz-Komponenten:

harm( a, f[k], φ) = a.cos( f[k].t + φ )

Ein Spektrum ist ein Diagramm, bei dem die Amplituden a über den Frequenzen f aufgetragen sind. Periodische Signale führen zu Komponenten mit ganzzahligen Frequenzen f[k] = k.f[1].

DFT (anschauliche Ableitung)

Die digitale Fourier-Transformation soll anschaulich erklärt werden. Zur Vereinfachung sollen lediglich anz=5 Samples pSrcX[k] mit k=0,1,2,3,4 vorliegen. Ein Kreis wird in 5 Sektoren eingeteilt. Die Winkel sind w[i] = i*2*π/5 mit i=0,1,2,3,4. Die x-Komponenten der Punkte P[i]( cos[i], sin[i]) auf dem Einheitskreis sind cos(w[i]).

i = 0 1 2 3 4 Summe
cos[i]= 1.000000 0.309016 -0.809016 -0.809016 0.309016 0.000000
sin[i]= 0.000000 0.951056 0.587785 -0.587785 -0.951056 0.000000

Die folgende Skizze zeigt die Kreispunkte und die x-Komponenten.

Betrachtung der x-Komponenten

Samples      : pSrcX[k] mit k=0,1,2,3,4

Einheitskreis: w[i] = i*2*π/5,  cos(w[i])

<hr>

Rechnung :

Start    : x = 0.0; 
Summation: x = x + cos(w[i]) * pSrcX[k]
für ein j jeweils über alle k 
ergibt x[j]
fourier-transformation.gif
DFT (Beispiel mit Sample-Anz=5)

Die anz=5 Samples pSrcX[k] werden jeweils anz=5 mal mit unterschiedlichen cos(w[i]) multipliziert.

j = 0   1   2   3   4  
k = 0 1 2 3 4   0 1 2 3 4   0 1 2 3 4   0 1 2 3 4   0 1 2 3 4  
i = k * j % anz = 0 0 0 0 0   0 1 2 3 4   0 2 4 1 3   0 3 1 4 2   0 4 3 2 1  
 Start mit x := 0.0; y := 0.0;
 Dann summiere für ein j 
 ( jeweils über alle k )
   x := x  +  cos[i] * pSrcX[k] ; 
   y := y  +  sin[i] * pSrcY[k] ;
 ergibt x[j]
  • j=0 wird benutzt i = 0, 0, 0, 0, 0
  • j=1 wird benutzt i = 0, 1, 2, 3, 4
  • j=2 wird benutzt i = 0, 2, 4, 6, 8; wegen > 2.π: ( 0, 2, 4, 1, 3 )
  • j=3 wird benutzt i = 0, 3, 6, 9, 12; wegen > 2.π: ( 0, 3, 1, 4, 2 )
  • j=4 wird benutzt i = 0, 4, 8, 12, 16; wegen > 2.π: ( 0, 4, 3, 2, 1 )

Die Produkte werden summiert und ergeben die x-Komponente der Spektralkomponente ( Fouriertransformierte ).

Zum Verständnis ist es günstig, die 5 Partialsummen für jeden j-Werte zu bilden.

DFT (C-Programm)

Es liegen z.B. anz = 256 Sound-Samples vor. Das komplex Fourier-Spektrum soll berechnet werden. Das folgende Verfahren ist wegen den vielen sin(), cos()-Berechnungen für eine größere Sample-Anzahl zu langsam. Das Verfahren soll lediglich den Kern der komplexen Fourier-Transformation beschreiben. Es werden eindimensionale double-Array verwendet, die global seien und z.B. gemäß

double * p = ( double * ) calloc( anz, sizeof( double ) );

allokiert wurden. Die Freigabe des Speichers sollte an geeigneter Stelle mit free( p ) erfolgen. In den double-Array pSrcX sind anz = 256 double-Samples enthalten und alle 256 Elemente des double-Arrays pSrcY seien 0.0. Es werden 2 globale Tabellen mit den berechneten cos( ), sin( )-Werten benötigt, die z.B. gemäß

// Berechnung der Hilfarrays    pCos[ ], pSinY[ ]
int k ; double w = 0.0 ; double dw = 2.0 * π / anz ; 
for ( k = 0 ; k < anz ; k ++, w += dw , pCos ++ , pSin ++ ) {
   * pCos = cos( w ) ;
   * pSin = sin( w ) ;
}

berechnet werden können.

// Fourier-Algorithmus ( in: anz, pSrcX[ ], pSrcY[ ]; out: pDstX[ ], pDstY[ ] )
  double x, y, Cos, Sin ;
  int  i, j, k ; 

  if ( typ == FT_SPECTRUM2TIME ) {
    for ( j = 0 ; j < anz ; j ++ ) { pSrcX[j] /= anz ; pSrcY[j] /= anz ; }
  }

  for ( j = 0 ; j < anz ; j ++ ) {    x = y = 0.0 ; 
    for ( k = 0 ; k < anz ; k ++ ) {  i = k * j % anz ;
      Cos = +pCos[ i ] ; 
      Sin = -pSin[ i ] ; if ( typ == FT_SPECTRUM2TIME ) Sin = -Sin ; 

    x += Cos * pSrcX[k] - Sin * pSrcY[k] ; 
      y += Sin * pSrcX[k] + Cos * pSrcY[k] ;
    }
    pDstX[ j ] = x ; 
    pDstY[ j ] = y ; 
  }
}

Dieser Algorithmus berechnet aus den anz=256 Sample-Werten pSrcX[k] = Sample[k], pSrcY[k] = 0.0 das komplexe Spektrum pDstX[k], pDstY[k]. Die k-te Amplitude amplitude[k] ist dann

Amplitude[k] = sqrt( pDstX[k]*pDstX[k] + pDstY[k]*pDstY[k] )

Die Umkehrtransformation ermittelt aus dem Spektrum die Samples. Zur Berechnung der Umkehrtransformation sind alle Werte des Spektrums in die Source-Arrays zu kopieren ( pSrcX[j] = pDstX[j], pSrcY[j] = pDstY[j] ) und mit ( typ == FT_SPECTRUM2TIME ) sollten sich dann in pDstX[j], pDstY[j] die ursprünglichen Samples ( bis auf Rundungsfehler ) ergeben.

DFT (ECMAScript)
<script type="text/javascript">/*<![CDATA[*/

function cos_tab ( anz ) {
 var k, C=[], w = 0.0, dw = 2.0 * Math.PI / anz ; 
 for (var k = 0 ; k < anz ; k ++, w += dw ) {
   C[k] = Math.cos( w ) ;
 } return C;
}

function sin_tab ( anz ) {
 var k, S=[], w = 0.0, dw = 2.0 * Math.PI / anz ; 
 for (var k = 0 ; k < anz ; k ++, w += dw ) {
   S[k] = Math.sin( w ) ;
 } return S;
}

// Geg. Samples (Daten)
var SrcX = [20, 40, 50, 30, 20, 10, 40, 50];
var SrcY = [ 0,  0,  0,  0,  0,  0,  0,  0];
//var typ  = 'TIME2SPECTRUM'; //vorwärts
//var typ  = 'SPECTRUM2TIME';//rückwärts


function fourier_algorithmus ( SrcX, SrcY, typ ) {
  var i, j, k, x,y, c,s, DstX=[], DstY=[]; 
  var anz = Math.min(SrcX.length, SrcY.length);
  var Cos = cos_tab(anz), Sin = sin_tab(anz); 

  if ( typ == 'SPECTRUM2TIME' ) {
    for ( j = 0 ; j < anz ; j ++ ) { SrcX[j] /= anz ; SrcY[j] /= anz ; }
  }

  for ( j = 0 ; j < anz ; j ++ ) {    x = y = 0.0 ; 
    for ( k = 0 ; k < anz ; k ++ ) {  i = k * j % anz ;
      c = +Cos[i] ; 
      s = -Sin[i] ; if ( typ == 'SPECTRUM2TIME' ) s = -s ; 
      x += c * SrcX[k] - s * SrcY[k]; 
      y += s * SrcX[k] + c * SrcY[k];
    } // DstX[j] = x; DstY[j] = y; 
    DstX[j] = x.toFixed(1); 
    DstY[j] = y.toFixed(1); 
  } return [DstX,DstY];
}

var dst = fourier_algorithmus ( SrcX, SrcY, 'TIME2SPECTRUM' );
var src = fourier_algorithmus ( dst[0], dst[1], 'SPECTRUM2TIME' );

var br = "<br />";
var ss = "DstX="+dst[0] +br+"DstY="+dst[1] +br+br 
       + "SrcX="+src[0] +br+ "SrcY="+src[1]

window.onload = function() { document.write(ss); }
/*]]>*/</script>

Ausgabe:

DstX= 32.5,  4.425 , -6.25, -4.425,  0.0, -4.425, -6.25, 4.425
DstY=  0.0, -2.1375,  3.75,  0.3625, 0.0, -0.3625,-3.75, 2.1375

SrcX= 20.0, 40.0,   50.0,   30.0,   20.0, 10.0,   40.0, 50.0
SrcY=  0.0,  0.0,   -0.0,   -0.0,    0.0,  0.0,   -0.0, -0.0
Spektrum

Signale zeigen den zeitlichen Verlauf. Im Diagramm werden die Amplituden über der Zeit t aufgetragen. Im Frequenzbereich ( Spektrum ) werden die vorkommenden harmonischen Anteile über der Frequenz f aufgetragen.

Analytisch gegebene ( einfache ) Zeit-Funktionen können mathematisch mit den Formeln für die Fourier-Transformation in den Frequenzbereich umgerechnet werden. Z.B. entspricht einer gedämpften ( abklingenden ) Schwingung x(t) im Frequenzbereich die Lorenz-Kurve a(ω). Die Lorenz-Kurve wird auch Breit-Wigner-Kurve genannt.

Zeitbereich:

x(t) = e^-k.t.cos(ω[0].t)
mit t > 0;


Frequenzbereich:

a(ω) = k/(k^2+(ω-ω[0])^2)

lorentz.jpg

Einer gedämpften Schwingung im Zeitbereich entspricht ein einziger Peak im Frequenzbereich. Für den Transport von zeitlich variierenden Signalen ist die Bandbreite der Übertragung wichtig. Ausserhalb dieser Bandbreite wird das Signal verzerrt und gedämpft. Für solche Betrachtungen eignet sich die spektale Darstellung.

Beispiele:

Frequenzspektrum ( Fouriertransformierte ) für nichtperiodische Signale x(t)
Die Spektralfunktion der Stoßfunktion ist in einem weiten Bereich nahezu konstant: fourier1.jpg
Die Sprungfunktion liefert überwiegend niedrige Frequenzen: fourier2.jpg
Ein Schwinger betont einen Frequenzbereich: fourier3.jpg
  Zeitbereich t, Frequenzbereich f
Abtasttheorem

Das Abtasttheorem wurde von Shannon ( 30.4.1916-24.2.2001, Schaltalgebra, Begründer der Informationstheorie ) formuliert. Wird ein analoges Meßsignal x(t) mit der Abtastperiode dt zu den Zeiten t[k] = k.dt mit k = 0,1,2,... n-1, abgetastet, so ergeben sich die Abtastwerte x[k] = x(t[k]).

Abtasttheorem: f[max] < f[Abtast]/2 = 1/(2.dt)
Abtasttheorem:

Aus den Abtastwerten x[k] kann der Signalverlauf x(t) rekonstruieren, falls die höchste in x(t) vorkommende Frequenz f[max] kleiner ist als die halbe Abtastfrequenz f[Abtast]/2 = 1/(2.dt). Diese halbe Abtastfrequenz wird als Nyquistfrequenz bezeichnet. Z.B. werden für Musik Samples x[k] ( a 2 Byte ) verwendet bei einer Abtastperiode dt = 1/( 44.1 kHz ).

Falls das Meßsignal x(t) höhere Frequenzen als die Nyquistfrequenz enthält, so kann das ursprüngliche Meßsignal nicht mehr vollständig aus den Abtastwerten bestimmt werden. Eine solche ( fehlerbehaftete ) Rekonstruktion wird Aliasing genannt. Antialiasingfilter ( Tiefpass ) beseitigen die Frequenzen, die größer als die Nyquistfrequenz sind.

samples.jpg

Die Bestimmungsgrößen eines Klanges ( Frequenz, Hüllkurven, Oberwellen, Lautstärke, zeitliche Entwicklung, usw.) werden im Synthesizer [griechisch/englisch, durch Synthese verbinden, aufbauen ] aus vielen Einzelfunktionen zusammengesetzt.

Moderne elektronische Instrumente ( Keyboard-Sampler ) ermöglichen ein Hinzumischen von gesampelten, instrumentenspezifischen Oberwellen zu den Grundtönen von Tasteninstrumenten. Dadurch entsteht ein Klang, der dem Klang von natürlichen Instrumenten nahe kommt. Moderne Pop-Musik wird überwiegend mit diesen technischen Möglichkeiten komponiert und erstellt.

In der Popmusik ( z.B. Hip Hop, House Music, Techno ) werden oft kurze Sequenzen von alten Soul-Platten genutzt, die in Schleifen ( Loops ) wiederholt und im Tonstudio ( Computer ) zusammen gemischt werden. Diese Studio-Technik wird ( auch ) Sampling genannt.

Resonanz

Resonanz [ lateinisch, wörtlich Widerhall ] ist ein grundlegendes, naturwissenschaftliches Phänomen, das vielfältig vorkommt ( Schwingung; Resonanz in der Chemie; Resonanz in der Elektronik; Oszillator; Schwingunserzeugung für künstliche Töne und Stimme; Brücken; Grockentürme; Hochhäuser; Musikinstrumente; usw. ) Resonanz entspricht dem ( starken ) Mitschwingen eines Systems ( z.B. Körper ) in der Schwingung ( Grund- oder Obertonbereich ) eines anderen, äusseren, anregendem Systems. Z.B.können beim Zusammenstoß energiereicher schwerer Teilchen ( Hadronen ) angeregte Mesonen- oder Baryonen-Zustände entstehen ( Massenresonanzen, Teilchenresonanzen ), die als kurzlebige Elementarteilchen ( Lebensdauer etwa 10^-22sec ) unter Emission von Mesonen ( auch von Leptonen, Photonen ) in stabilere Elementarteilchen zerfallen. Z.B. bedarf die menschliche Stimme der inneren Resonanzverstärkung im Nasen-Rachen-Raum, das Hören der Resonanen des Ohres.

Resonanzfähig sind z.B.

  • gespannte Saiten
  • eingeschlossene Luft
  • Metall- und Glasstücke
  • Atome und Moleküle in elektromagnetischen Feldern

Für die Klangerzeugung und Laustärkeerhöhung bei vielen Musikinstrumenten wird ein Resonanzkörper genutzt:

  • Korpus bei Akustik-Gitarre und Violine,
  • Rohr und Schalltrichter bei den Blasinstrumenten
  • Kessel bei der Pauke
  • Mundraum bei der Maultrommel
  • Resonanzboden beim Klavier,
  • Resonanzfell bei Trommeln

Auch bei elektronischen Instrumenten werden Resonanzen für die Erzeugung von Klangfarben ( Obertönen, Samples ) genutzt.

Die dynamischer Fremderregung entspricht der äusseren Anregungs-Kreis-Frequenz ω. Wenn das System sich selbst überlassen ist, so tendiert es dazu, mit der ihm eigenen Kreis-Frequenz ω[0] zu schwingen. In der Nachrichtentechnik wird die Resonanz elektrischer Schwingkreise zur Erzeugung und Trennung von elektrischen Schwingungen verwendet. resonanz-schwingkreis.jpg
Das folgende Bild ist ein anschauliches Modell, das sich auf andere Situationen übertragen lässt.
Durch den Stift, der hier wagerecht hin und her geht, wird das schwingunsfähige System ( hier das Federsystem ) angeregt, indem es periodisch "auf und ab" bewegt wird. Diese äussere Periode entspricht ω. Hingegen entspricht ω[0] der Frequenz, mit der das Federsystem gerne schwingen möchte. Ein schwingunsfähiges System kann von aussen angeregt werden, z.B. durch
  • die Unwuchtkräfte von bewegten Massen
  • ( hier ) die Bewegung des Systems ( Aufhängepunkt ) von aussen:
resonanz-feder.jpg
   t  = zeit
   s  = Auslenkung aus der Ruhelage
ω[0] = Eigenkreisfrequenz
   ( im Bild ist ω[0] gross, 
   wenn die Federkonsteifigkeit C gross ist )


<pre>
   s^.. + ω[0]^2.s = b.sin(ω.t)
b = Stärke der äusseren Anregung ( einer Frequenz ), ( im Bild ist b gross, wenn r gross ist ) ω = angegende äussere Kreisfrequenz ( im Bild ist ω gross, wenn sich das anregende Rad schnell dreht )

Die Abbildung zeigt, wie sich mit wachsender Frequenz der Erregung von aussen ( d.h. mit wachsendem ω, "wir gehen im Bild von von links nach rechts") die Auslenkung A ( Normierung A = s/s[0], [0]=statische Auslenkung=Ruheauslenkung ) "nach oben wächst".

Bei geringer Dämpfung ( d ist klein ) können im Resonanzfall ( ω/ω[0] H 1 ) grosse Auslenkungen auftreten. Die Amplitude der so erzwungenen Schwingungen hängt wesentlich von den Dämpfungseigenschaften ( z.B. Reibung, elektrischer Widerstand) des Resonators und vom Frequenzunterschied zwischen erregtem und erregendem System ab. Je kleiner die Dämpfung ( z.B. Masse ), umso leichter gerät ein System ins Schwingen. Ist die Dämpfung = 0, so können winzigste Auslenkungen zu unenlich grossen Auslenkungen führen ( das System wird zerstört, Resonanzkatastrophen ).

Der Phasenwinkel phi ( Æ ) beschreibt den "Gleichklang" von Anregung und der Reaktion des Systems. In der Resonanznähe "geht phi durch Null" ( perfekter "Gleichklang" ).

Das "gut" Mitschwingen eines Resonators ( betrachtetes, schwingungsfähiges System ) mit seiner Eigenfrequenz ( Eigenschwingung ) wird Resonanz genannt. Ein schwingunsfähiger Resonators ( wenig gedämft ) führt in Resonanz grössere Schwingungen aus, als dies von der Anregung her zu erwarten wäre.

resonanz-amplitude.jpg
resonanz-phase.jpg
⁝ Multimedia und Technik
Multimedia-Technik

Die vergangenen 3 000 Jahre sind mit einer fortschreitenden Entfaltung medialer Praktiken verbunden (mündlichen Kommunikationsformen der Priester und Schamanen im religiösen Ritual, dem dramatischen Spiel und der dichterischen Überlieferung durch Sänger und Erzähler, den Tontafeln der Sumerer (Keilschrift), der Papyrusrolle der Ägypter (Hieroglyphen), Griechen und Römer in der Antike, der Kodexform des Buches seit dem 2.Jh. ( Buchmalerei, Prachthandschriften des Mittelalters, gedrucktes Buch, Flugblätter, moderne Formen der Massenkommunikation, Zeitschrift und Zeitung, Schallplatte, Stummfilm, 1927 Tonfilm, Rundfunk seit 1924 in Deutschland, Fernsehen). Informationen können mit unterschiedlichen Medien durch Sprache, Schrift, Bild, Musik und nonverbal (gestische, mimische) verbreitet werden (Mediengesellschaft). Nach Marshall McLuhan (Medientheoretiker) ändern Medien die Wahrnehmungsformen des Menschen (das logisch-kausale Denken in den westlichen Gesellschaften ist auch ein Ergebnis der Schrift- und Buchkultur, der Gutenberg-Galaxis, Mediengeschichte als Menschheitsgeschichte, Nachrichten, Bildung, Unterhaltung, Photographie, Film, Rundfunk, Fernsehen, elektronischen Speichermedien, elektronischen Netzwerke).

Multimedia strebt die Verbindung von Wahrnehmungsformen (Text, Bild, Ton, Video, Film, Hypertext, interaktive Simulation) an. Technisch genutzte medien sind Buch, Zeitungen, Zeitschriften, Photographie, Film, Hörfunk und Fernsehen, Schallplatte, Tonband und elektronische Medien. Das Telefon erlaubt eine bidirektionale Kommunikation. Medien werden unterschiedlich unterteilt: Printmedien/elektronische Medien, Massenmedien; audiovisuellen Medien; optische oder akustische Medien; Primärmedien (z.B. das Theater), Sekundärmedien (z.B. Druck von Zeitungen), Tertiärmedien (CD, Digital Video Broadcasting, Video on demand, World Wide Web).

Der Multimedia-Begriff kann aus unterschiedlichen Blickwinkeln betrachtet werden: individueller Nutzen und Anwendersicht, gesellschaftliche Relevanz, ästetischen Entwicklung (Videokunst) und künstlerischen Gestaltung, technische Realisierung, Verfügbarkeit (Overhead-Projektoren, Beamer, Video-Kamera, Video-Recorder, DVD-Recorder), Ortsunanhängigkeit (z.B. Internet, Video-Spiele).

Die Audio-Technik (analog/digital) umfaßt heute die Gebiete der

  • Schall-Aufnahme
  • Schall-Bearbeitung
  • Schall-Wiedergabe

Mit der Einführung von elektrischen Verfahren (Elektronik) kam eine Entwicklung in Gang, die

  • zum Tonfilm (1920)
  • zum Rundfunk (1923)
  • die 4 - Kanal - Stereophonie (1953)
  • die Stereo - Schallplatte (1957)
  • den Stereo - Rundfunk (1962)
  • die digitalen Compact - Disk (1984)

führte.

Schallaufzeichnung

Die Schallaufzeichnung (griechisch: Phonographie) dient der Speicherung von Schallvorgängen auf einem Träger. Der amerikan. Pionier Thomas Alva Edison (1847-1931) meldete mehr als 1000 Patente an. 1877 erfand Thomas Alva Edison einen Apparat, mit dem Schall auf einer Staniol-Walze aufgezeichnet und wiedergegeben werden konnte. Die Schallwellen wurden mit einem Schalltrichter gebündelt.

edison.jpg
Erfindungen von
Edison (1847-1931):
      
1877: Kohlekörnermikrofon 
1878: Phonograph (Vorläufer
      des Grammophons) 
1879: Kohlefadenglühlampe 
1881: Dampf-Verbundgenerator
1891: Kinetograph
      (Filmaufnahmegerät)
phonograph-prinzip.jpg
Das Prinzip des Edison-Phonographen 1877 besteht aus Staniolwalze, Schneidstichel, Membran und Schalltrichter. Die Luftdruckänderungen werden bei diesem Nadeltonverfahren elektromechanisch mit einem Schneidstichel als Rille auf die Walze ( später Schell-Lack-Platte) aufgezeichnet. phonograph.jpg

Magnetische Schallaufzeichnungen verwenden die magnetisierung von Dipolen als Tonspur(en) auf Magnettonträger. Das Lichttonverfahren benutzt optische Verfahren, die auf dem Filmmaterial die "Lichtspur" aufzeichnen.

Für eine möglichst wirklichkeitsgetreue Schallaufzeichnung werden heute Kondensatormikrofone eingesetzt, die eine mitschwingende Metallfolie verwenden. Damit die Folie möglichst trägheitslos den Schalldruckänderungen folgen kann, ist die Folie (sehr) dünn. Die Kapazitätsänderung der Folie entspricht einer (sehr) kleine elektrische Spannung. Kondensatormikrofone sind teuer, empfindlich, und brauchen eine Fremdspannung. Kondensatormikrofone werden in der Studio-Technik eingesetzt.

kondensator-mikro-prinzip.jpg Prinzip eines modernen Schallwandlers (Kondensatormikrofon) Die Luftdruck-Änderungen bringen die Membran zum schwingen. Der Abstand zur Gegenelektrode entspricht der elektrostatischen Kapazität. Die Kapazitätsänderungen entsprechen der Potentialänderungen der Tonfrequenz.
Eigenschaften typischer Mikrofone
Typ

Richt-
charakte-
ristik
Frequenz-
bereich
Hz
Empfindlich-
keit
mV/Pa
Eigen-
rauschen
dB(A)
Studiomikrofon
(Kondensator)
Kugel 20-20.000 20 24
Studiomikrofon
(dynamisch)
Kugel
Supercardioid
30-20.000 1.3-1.8 30
Elektret-
Mikrofon
(4, 3, 2 mm)
Niere 100 - 5.000 10 25
Telefon-
Sprechkapsel
(piezoelektrisch)
Kugel 300-3.400 4 -
Speicherung
mechanisch Eine Schallplatte besteht aus einer kreisrunde Scheibe aus Polyvinylchlorid. Die Schallsignale werden in spiralförmigen, zum Mittelpunkt der Schallplatte verlaufenden Rillen gespeichert. Die Rillenauslenkung schwankt analog zur Schallamplitude und kann mit Hilfe des Tonabnehmers eines Plattenspielers in elektrische Spannung und dann in Schall umgewandelt werden. Die analoge Schallplatte ist beidseitig abspielbar. Die Schallaufzeichnung wird fest aufgeprägt und läßt sich nicht löschen oder überspielen. Schallplatte werden mit einer Drehzahl von 33.3333 oder 45 Umdr./min abgespielt. SP's (Single) und LP's ( long playing record, Langspielplatten) sind urheberrechtlich geschützt (§§15, 16, 73 Urheberrechts-Gesetz) und dürfen nur mit Zustimmung des Urhebers und der ausführenden Künstler kopiert werden. Nur der Tonträgerhersteller darf Schallplatten vervielfältigen und verbreiten.
magnetisch Schall kann in ein analoge, elektrische Spannung gewandelt werden und als Strom durch eine Spule Dipole einer magnetisierbaren Schicht ausrichten (analoges Aufzeichnungsverfahren, Tonspuren eines Magnettonträgers, Magnetkassetten, Tonbänder).
optisch
CD
Es gibt Lichttonverfahren die optisch eine Belichtungsspur auf Filmmaterial aufzeichnen und eine (sehr hohe) Aufzeichnunsdichte erreicht (Archivierung).

CD-ROM (compactdisc, read only memory) ist ein optisches Speichermedium (z.B. 650 MB, digital) und wurde 1982 von den Firmen Philips und Sony als Tonträger (Audio-CD) entwickelt. Vorteile sind: geringe Abmessung (12 cm Durchmesser), längere Spieldauer (bis zu einer Stunde), unbegrenzte Reproduzierbarkeit, Verschleißfreiheit, beste Tonqualität (32 Bits je Sample, hohe Abspielrate). CD-R ( englisch compact disc-recordable) können einmal beschrieben werden. CD-RW (englisch compact disc-rewritable) können mehrfach beschrieben werden kann. Das digitalisierte Signal wird mit Hilfe eines Lasers auf einer lichtempfindlichen Beschichtung als Hell-Dunkel-Punkt-Folge aufgezeichnet. Diese eingebrannten Löcher werden Pits genannt. Die Speicherkapazität erlaubt das Aufzeichnen von Texten, Bildern, Tonaufnahmen, Filmen. Anstelle der herkömmlichen Schallplatte-Rille mit mechanischr Abtastung hat die Ton-CD spiralförmig angeordnete winzige Vertiefungen für die digitale Speicherung der Töne. Diese Hell-Dunkel-Punkt-Folge bildet die Bits von Samples.

Die Bits werden von einem feinen Laserstrahl abgetastet und wieder in analoge Musiksignale gewandelt. CDs werden heute auch im Unterhaltungs- und Multimediabereich eingesetzt, wofür es spezielle Weiterentwicklungen gibt:
CD-I (CD-Interaktiv) verknüpft Ton und Bild mit Software-Anwendungen, deren Wiedergabe über Fernseher oder Stereoanlage erfolgt,
MMCD (Multimedia-CD) und SD-Disc (Super-Density-Disc) ermöglichen die Speicherung von kompletten Spielfilmen.
optisch
DVD
Aus der ursprünglichen DVD (Digital Video Disc) und dem SD-ROM ( Super Density Read Only Memory) wurde 1995 ein einheitlicher Standard (DVD für Digital Versatile Disc). Der Aufbau der DVD ist ähnlich einer normalen CD, wobei jedoch durch Auftragen einer zweiten Datenträgerschicht eine doppelseitigen Nutzung möglich ist (daduch 4 verschiedene Formate mit unterschiedlichem Speichervolumen). Das Speichervolumen der 1. Schicht beträgt 4,7 GB, der 2.Schicht 3,8 GB. Die Informationen sind auf der einen Schicht von innen nach außen, auf der anderen von außen nach innen verteilt (groove = Datenspirale, versatil = beidseitig). DVD-Laufwerke können auch CD-ROM und Audio-CD lesen. DVD-CDs sollen (zukünftig) auch für besonders hochwertige Audio-Aufzeichnungen eingesetzt werden (auf 96 KHz verdoppelte Abtastrate, 24 Bit Auflösung). Bei DVD wird für die engere Spurführung ein Schreib- und Lese-Laser mit besonders kurze Wellenlängen und starker Fokussierung verwendet (Spurabstand: DVD 0,74 Mikrometer, CD-ROM 1,6 Mikrometer; Pit-Länge: DVD 0.4 Mikrometer; CD-ROM 0,9 Mikrometer)

1997 wurden Regionalcodes für DVD-Datenträger und -Laufwerke festgelegt. (viele Computer-DVD-Player können auf verschiedene Ländercodes umschalten):
1 = Amerika, Kanada
2 = Japan/Westeuropa/Mittlerer Osten/Südafrika
3 = Asien
4 Australien /Südamerika/Mexiko
5 = Afrika/Gebiet der ehemaligen UdSSR/ Indien
6 = China
8 = Flugzeuge
DVD-ROM: nur lesen;
DVD-R: einmal beschreiben;
DVD-RAM: mehrfach wieder beschreiben;
einseitig: DVD5 (einlagig 4.7 GB) und DVD9 (zweilagig 8.5 GB );
zweiseitig: DVD10 (einlagig 9.4 GB) und (DVD18 zweilagig 17.0 GB );

DVD-Fornate:
DVD-ROM (nur lesbar, 4.7 bis 17 GB);
DVD-RAM (wiederbeschreibbar, 2.6 GB einseitig, 5.2 GB zweiseitig );
DVD-RW (wiederbeschreibbar, 4,7 GB);
DVD+RW (wiederbeschreibbar, 3 GB);
DVD-R (1x beschreibbar, 3.95 GB einseitig, 7.9 GB zweiseitig);
DVDplus (Kombination von DVD und Audio-CD (auf einander geklebte Hälften);
MMFV (1x beschreibbar, 5.2 GB);
dvd.jpg
DVD-Kompatibiltät:

        |  CD  | CD | CD | CD | DVD| DVD| DVD |      |
LW      |Audio | ROM| -R |-RW |-ROM| -R |-RAM | DIVX |
--------|------|----|----|----|----|----|-----|------| 
DVD-ROM |  ja    ja   Ja   ja   ja                   |
DVD-R   |  ja    ja   Ja   ja   ja   ja              |
DVD-RAM |  ja    ja   Ja   ja   ja         ja        |
DIVX    |  ja    ja   Ja   ja   ja               ja  |
--------|------|----|----|----|----|----|-----|------|
Bilder

Die Grenzen zwischen den Multimedia-Teilgebieten (Kompressionsverfahren, Streaming, Computergrafik, Bildanalyse, Bildverarbeitung,) sind unscharf und nicht entgültig festgelegt. Die grafische Datenverarbeitung ist ein Gebiet der angewandten Informatik und wird unterteilt in Computer Grafik (computer graphics), Bildverarbeitung (image processing), Bildanalyse (picture analysis), Bilddatenreduktion, Kompressionverfahren.

Monitor

Das Sichtgerät enthält neben der Ansteuerelektronik die Kathodenstrahlröhre (CRT = Cathode Ray Tube). Die Kathodenstrahlröhre besteht aus einer Hochvakuumröhre, die die Elektronenerzeugung, -Fokusierung, -Beschleunigung, -Ablenkung und die Leuchtschicht enthält. Vor der beheizten Kathode (Elektronen - Strahlerzeugung) befindet sich ein Steuergitter ( Wehnelt-Zylinder). Mit der Wehnelt - Spannung kann die Strahintensität und damit die Helligkeit gesteuert werden. Ein elektrisches Feld beschleunigt die Elektronen. Die Fokusierung erfolgt meistens magnetisch.

Treffen die Elektronen auf die Leuchtschicht des Bildschirmes, so wird von der Leuchtschicht Licht emittiert. Auch bei abgeschalteten Elektronenstrom tritt ein gewisses Nachleuchten (Persistenz) auf. Die Nachleuchtdauer bestimmt, wie oft das Bild je Sekunde neu geschrieben (regeneriert) werden muß, damit der Benutzer den Eindruck eines stehenden, flimmerfreien Bildes hat. Eine hohe Bildwiederholfrequenz bei kurzer Nachleutdauer bedeutet, daß für den Bildaufbau wenig Zeit zur Verfügung steht. Bei kleinen Bildwiederholfrequenzen und langen Nachleutdauern sieht man 'Geisterbilder'. Die Bildwiederholfrequenz beträgt etwa 60 bis 100 Bilder je Sekunde.

Die Kathodenstrahlröhre ist nicht direkt per Software programmierbar. Die elektronische Bildschirm - Steuer - Logik wird wesentlich durch den Grafik - Prozessor (auf der Grafik - Karte) übernommen. Die darzustellenden Pixelwerte (Farbwerte) werden dem Bildschirm - Speicher entnommen, aufbereitet und in elektrische Bildschirm - Signale umwandelt. Die Organisation des Grafik - Speichers erfolgt vielfach in drei Color - Map - Bereichen (r, g, b).

Obwohl das direkte Lesen/Schreiben im Bildschirmspeicher besonders schnell ist, verhindern moderne Betriessystem aus Sicherheitsgründen mit dem Privileg Level den direkten Zugriff auf den Bildschirmspeicher. Das Betriebssystem unterstützt standardisierte Grafik - Adapter von unterschiedlichen Herstellern. Die Größe des Grafik - Speichers begrenzt die maximale Auflöung und Farbtiefe. Für die Anpassung und Benutzung von speziellen Grafik - Adaptern ist ein "Treiber" erforderlich, damit das Betriebssystem diese speziellen Hardware - Eigenschaften interpretieren kann.

Beim einfachen Zeilensprungverfahren (Interlacing) wird ein Bild dadurch aufgebaut, daß zunächst

  • die 0., 2., 4., 6., ... Pixel - Zeile und dann
  • die 1., 3., 5., 7., ... Pixel - Zeile geschrieben wird.
Dadurch kann mit einer geringeren Bandbreite der Steuerelektronik gearbeitet werden.

Im Textmodus des Grafik - Prozessors werden im Grafik - Speicher anstelle der Pixel die ASCII - Werte des Zeichens hinterlegt. Beim Anzeigen holt sich der Grafik - Prozessors ein ASCII - Zeichen aus dem Bildschirm - Speicher, benutzt diesen Wert als Index ind die Bit - Map - Font - Tabelle, aus der die zugeordneten Pixel geholt und im Bildschirm gesetzt werden.

TFT

TFTs (Thin Film Transistor, Dünnfilmtransistor) sind die Grundbaustein von aktiven Flüssigkristall-Bildschirmen (LCD). Jeder Bildpunkt entspricht 3 in Folie aufgebrachten Transistoren (mit einem Reservetransistor, der Ausfälle zu kompensiert). Die TFT-Bildschirme erlauben einen hohen Kontrast (bis circa 300:1), brillante Farben und schnelle Bildwechsel.

Video

Video (englisch, lateinisch: videre = sehen) ist eine Sammelbezeichnung für einen Komplex der Unterhaltungselektronik, der sich mit der Aufzeichnung und Wiedergabe von Fernsehbildern und Filmen befasst (Videotechnik, Videoband, Videoclip, Videofilm, Videokunst, Videotext, Videokamera, Videospiele). Der Begriff Video umfasst auch die Gesamtheit der dazu benötigten technischen Einrichtungen und Geräte (z.B. VHS = Video-Home-System, Video-Heim-System).

Videotext

Videotext ist der Informationsdienst von Fernsehsendern (Teletext oder Bildschirmtext, englisch ceefax). Während des laufenden Fernsehprogramms werden zwischen zwei normalen Fernsehbildern (in der so genannten vertikalen Austastlücke des Fernsehsignals) zusätzliche Text- und Graphikinformationen (in verschlüsselter Form übertragen). Mit dem Teletext-Decoder des Fernsehgerätes können Indexseiten ausgewählt und angezeigt werden (z.B. Nachrichten, Untertitel, Wetterkarte, Börsendaten, Bahn, Flughafen usw.). Für Gehörlose können Untertitel einblendet werden.

Videospiele

Durch neue Möglichkeiten (Hardware, Software) entstandt in den siebziger Jahren ein neuer Industriezweig der Video- und Computerspiele (Nintendo, Sega, MS, Spielhallen mit Videospielen, Spiele im Internet). Videospiele können Kinder mit Computern und Problemlösungstechniken vertraut machen und die emotionale Entwicklung (positiv/negativ) beeinflussen. Es gibt Sportspiele wie Fußball, Basketball, Eishockey, Golf; Abenteuer-Spiele; Abfrage- und Lernspiele; Spiele für Simulationen und zur Findung von Problemlösungstechniken.

Video-Aufzeichnung
VHS-Schrägspurverfahren
vhs-spuren.jpg.jpg

Entwicklungsstufen: Die magnetischen Video-Bildaufzeichnung (RCA 1953, 1956 Weiterentwicklung Ampexverfahren mit rotierenden Videoköpfen und Querspuraufzeichnung) gehörten zur Standardausrüstung in den Fernsehanstalten (MAZ). Ab 1972 gibt es Heimvideorekorder (Philips VCR = Video-Cassette-Recorder). Wegen der ausbleibenden internationalen Abstimmung (Konkurrenzkampfes zwischen den Entwicklerfirmen) gibt es keine einheitliche Kassettennorm. Es müssen systemspezifische Kassetten verwendet werden (Sony 1977 Betamax-System mit 1/2-Zoll-Bändern anstelle 3/4-Zoll-Bänder,
JVC 1977 mit seinem VHS-Videorekorder = Video Home System,
1979 Philips und Grundig Video 2000,
1985 Sony 8-mm-Videokassette bei Videokleinrekorden mit digitaler Tonaufzeichnung und HiFi-Qualität).

Die Ebtwicklung von optischen Aufzeichnungsmedien geht über CD zur DVD. CD/DVD-Entwicklungsstufen:
1982 Philips und Sony CD-ROM (compactdisc, read only memory, Audio-CD ),
aus der ursprünglichen DVD (Digital Video Disc) und dem SD-ROM (Super Density Read Only Memory) wurde 1995 ein einheitlicher Standard (DVD für Digital Versatile Disc).
Der Aufbau der DVD ist ähnlich einer normalen CD, wobei jedoch durch Auftragen einer zweiten Datenträgerschicht eine doppelseitigen Nutzung möglich ist (daduch 4 verschiedene Formate mit unterschiedlichem Speichervolumen). Das Speichervolumen der 1. Schicht beträgt 4,7 GB, der 2.Schicht 3,8 GB. Die Informationen sind auf der einen Schicht von innen nach außen, auf der anderen von außen nach innen verteilt. Audio- und Video-Formate, Bezeichnung für Verfahren zum Digitalisieren, Speichern und Bearbeiten von Ton- und Bildinformationen.

Format  Content Type  Quality   CPU          Bandwidth 
                                 Requirements Requirements
Cinepak AVI           Medium     Low          High
        QuickTime

MPEG-1  MPEG          High       High        High
H.261   AVI           Low        Medium      Medium   
        RTP

H.263  QuickTime     Medium      Medium       Low
       AVI
       RTP

JPEG   QuickTime    High         High      High
       AVI
       RTP

Indeo  QuickTime  Medium Medium Medium
       AVI

JMF API Guide 6: Table 1-1:  Common video formats.

Format Content Type  Quality   CPU          Bandwidth 
                               Requirements Requirements
PCM    AVI           High      Low          High
       QuickTime
       WAV

Mu-Law AVI           Low       Low         High
       QuickTime
       WAV
       RTP

ADPCM  AVI          Medium       Medium      Medium
(DVI,  QuickTime
IMA4)  WAV
       RTP

MPEG-1 MPEG        High         High         High

MPEG   MPEG        High        High        Medium
Layer3

GSM    WAV         Low         Low         Low
       RTP

G.723.1 WAV        Medium        Medium    Low
        RTP
Audio
Qualitätsstufe Format
Beispiel
Transferrate Speicherbedarf
1 Stunde
Speicherbedarf
100 000 Stunden
Netcasting RealAudio 20 KBit/s 8,8 MByte 0,9 Terabyte
Vorhören RealAudio
MPEG-1 Layer 3
80 KBit/s
192 KBit/s
35 MByte
84 MByte
3,5 Terabyte
8,4 Terabyte
Sendung/Schnitt MPEG-1 Layer 3 384 KBit/s 168 MByte 16,9 Terabyte
Archiv Waveform
BWF
1,5 MBit/s 675 MByte 67,6 Terabyte
Video
Qualitätsstufe Format
Beispiel
Transferrate Speicherbedarf
1 Stunde
Speicherbedarf
100 000 Stunden
Netcasting VDOLive 60 KBit/s 26 MByte 2,6 Terabyte
Vorschau (via ISDN) RealVideo 100 KBit/s 44 MByte 4,4 Terabyte
Vorschau (via LAN) MPEG-1 1,5 MBit/s 675 MByte 67,6 Terabyte
Sendung MPEG-2
MP@ML
8 MBit/s 3,5 GByte 350 Terabyte
Schnitt MPEG-2
DVCPro
DVCPro50
18 MBit/s
25 MBit/s
50 MBit/s
7,9 GByte
11 GByte
22 GByte
790 Terabyte.
1 Petabyte
2,2 Petabyte
Archiv M-JPEG
LosslessMode
100 MBit/s 43,9 GByte 4,4 Petabyte
unkomprimiert ITU-R BT.601-5 270 MBit/s 118,7 GByte 11,9 Petabyte
Vergleich zwischen DVD und CD
SYSTEM SPEICHERKAPAZITÄT SPIELDAUER (AUDIO) SPIELDAUER (VIDEO) CD-ÄQUIVALENTE
CD
Compact Disc
682 Megabyte 78 Minuten
(1 h 18 min)
70 Minuten
(Video-CD)
1
DVD
simple-sided/simple-layer
4,7 Gigabytes 570 Minuten
(9 h 30 min)
135 Minuten
(2 h 15 min)
7
DVD
simple-sided/double-layer
8,5 Gigabytes 1 050 Minuten
(17 h 30 min)
240 Minuten
(4 h)
13
DVD
double-sided/simple-layer
9,4 Gigabytes 1 140 Minuten
(19 h)
270 Minuten
(4 h 30 min)
14
DVD
double-sided/double-layer
17 Gigabytes 2 100 Minuten
(35 h)
540 Minuten
(8 h)
26
Pulscode-Modulation (PCM)

PCM ist eine Abkürzung für Pulscode-Modulation.

Viele Sensoren liefern analoge, elektrische Signale. Ein dynamisches Mikrofon erzeugt z.B. aus den Schall-Druck-Schwankungen eine analoge elektrische Spannung.

Der erste Schritt der PCM ist die Umwandlung des Analogsignals in ein Digitalsignal. Dazu wird das Signal zunächst in seiner Amplitude (Lautstärke z.B. beim Telefon) und seiner Bandbreite (Frequenzbereich / Tonhöhen) begrenzt. Dann wird mit einem Analog-Digital-Converter (ADC) wird das Signal abgetastet, indem in festen, kleinen Zeitabständen die Spannung gemessen wird. Jedem analogen Spannungswert wird eine Binärzahl zugeordnet. Eine solche Binärzahl heißt Sample.

Aus dem zeit- und amplituden-kontinuierlichen Signal wird damit ein zeitdiskretes Signal.

Die Samples umfassen z.B. 16 Bit und teilen den zulässigen Spannungsbereich damit in 65536 Intervalle auf (Diskretisierungs-Verzerrung ).

Die Samples können der Physiologie besser angepaßt werden, indem die Samples nicht linear sondern logarithmisch dem analogen Signal zugeordnet werden.

CCITT-Normen für die Audioübertragung

Die digitalen Daten (Samples) können nun digital verarbeitet z.B. seriell übertragen werden. Mit einem Digital-Analog-Converter (DAC) werden das treppenartige, genäherte Ausgangs-Signal erzeugt. Mit einem Tiefpaß kann dieses analoge Signal geglätten werden.

Bei Wikipedia gibt es eine Liste der Audioformat . Zu unterscheiden sind verlustfreie von verlustbehafteten Datenreduktionen.

Verlustfreie (Lossless) Audio Codecs

  • WAV (PCM, AIFF bei Macintosh)
    entspricht einer unkomprimierte Aufzeichnung von Soundsamples. Eine Minute in CD Qualität (44.1 kHz Abtastfrequenz, 16 Bit Samples, Stereo) benötigt etwa 10 MB Speicherplatz.
  • Monkey's Audio (verlustfreier Audiocodec für PCM-Wave Dateien)
    Monkey's Audio verwendeten APE-Tags zur Speicherung von Titelinformationen. Monkey's Audio ist nicht multikanalfähig.
  • WavPack (auch Multikanalquellen)
    (kostenlos, offener Quellcode, verlustfreien und verlustbehaftete Datenreduzierung) kann ID3v1 und APEv2-Tags, Titelinformationen verwenden.
  • FLAC
    FLAC steht für "Free Lossless Audio Codec" z.B. für .flac, .fla, ggf. .ogg.
  • LossyWAV
    LossyWAV ist ein Pre-Processor für Audiodateien im WAV-Format.
  • mp3HD
    Mp3HD ist ein verlustfreier Audiocodec (MPEG-1 Audio Layer III HD), der als "fallback" eine original-komprimierten Audiodateien als *.mp3 wiedergeben kann.

Verlustbehaftete Audioformate (Lossy)

  • MPEG (Moving_Picture_Experts_Group)
    Es gibt zahlreiche MPEG Standards. Alle Layer basieren auf dem Prinzip der Irrelevanzreduktion, indem die Anteile des Audiosignals, die vom Gehör nicht wahrnehmbar sind, weder übertragen noch gespeichert werden ( fraunhofer.de ). Beispiele: MPEG-1 allgemein, MP1 (MPEG-1 Layer 1), MP2 (MPEG-1 Layer 2), MP3 (MPEG-1 Layer 3), MPEG-2 allgemein, MPEG-4 allgemein.
  • AAC (MPEG-2/4 LC-AAC), HE-AAC / aacPlus
  • mp3PRO
    mp3PRO kombiniert MP3 und SBR (spectral band replication, Coding Technologies) und optimierter für niedrige Bitratenvon Internet- und Digitalradio oder in portablen Abspielgeräten.
  • mp3 Surround
    mp3 Surround wurde am Fraunhofer-Institut entwickelt. Das Format ist rückwärtskompatibel zu MP3.
  • Windows Media (WMA/ASF)
    ASF bedeutet WMA-kodierte Audio-Streams. WMA hat auch optimierte Varianten (WMA Voice, WMA-Lossless, WMA-Professional).
  • Musepack (MPC, ehem. MPEGplus)
    Das Format nutzt für effiziente Methoden zur verlustfreien Kompression eine Bitstromsyntax und ein psychoakustisches Modell und erreicht bei Bitraten von ~160-170 kbps eine hervorragende, nahezu transparente Qualität.
  • Ogg Vorbis
    Der kostenlose und lizenzfreie Audio-Codec liefert bei der hochwertigen Audiokodierung (trotz niedrigen Bitraten) eine hervorragende Qualität.
Normen für die Audioübertragung
Norm Ver-
fahren
Quanti-
sierung
bit
Abtast-
rate
kHz
Daten-Rate
kbit/sec MB/min
CCITT G711 PCM 8 8.0 64 0.48
CCITT G721 ADPCM 8 8.0 32 0.24
CCITT G723 ADPCM 8 8.0 24 0.18
CCITT G722 ADPCM 14 16.0 64 0.48
CCITT G728 LD-CELP     16 0.12
CD PCM 16 44.1 1411 10.58
DAT PCM 16 32.0
48.0
1000
1536
7.50
11.52
MPEG

MPEG (Moving Pictures Experts Group, Kompressionsstandards für Video- und Audiodaten seit 1988) ermöglicht die Kompression von bewegten Farbbildern ( Videos) und der Tonspur. Das Ziel ist eine effektivere Ausnutzung der Kabelnetze, Satellitentransponder und TV-Kanäle (Multimediaanwendungen, Filme, Songs, Internet). Bisher gibt es 4 Standards für Video (MPEG-1 bis MPEG-4). Populär ist der Audiostandard MPEG Audio Layer 3 (kurz MP3). Datei-Kennungen sind

  • *.mpg für Video
  • *.mp2, *.mp3 für Audio

Seit 1987 arbeitet man im Institut für Integrierte Schaltungen (ISS) der Fraunhofer-Gesellschaft in Erlangen an verschiedenen Layern für MPEG. Mit Layer 1 wurde ein Kompressionsfaktor von 4:1 verwirklicht und mit Layer 2 schon 8:1; Layer 3 erreichte den exzellenten Faktor von 12:1. Mit der Layer-1-Codierung wurde der DCC-Rekorder (Digital Compact Cassette) verwirklicht, mit Layer 2 arbeitet das europäische DAB-System (Digital Audio Broadcasting).

Das Audioformat MPEG Audio Layer 3 (kurz MP3) benutzt ein Studio-Audiosignal (88 kHz Abtastfrequenz, 16 Bit Samples, 1 408 Kbit/s/Kanal, bei Stereo also rund 2.8 Mbit/s (als klassische CD-Qualität gilt: 44,1 KHz, 16 Bit, Stereo; 706 Mbit/s/Kanal, also rund 1.4 2.8 Mbit/s). MP3 arbeitet mit einem psychoakustischen Modell zur Datenkomprimierung ( Anpassung an den menschliche Gehörsinn, Datenreduzierung ohne Klangverschlechterung). MP3 zerlegt den Klang in 32 Spektralkomponenten, die nach psychoakustischen Kriterien reduziert werden.

Beispiel: Laute und tiefe Töne überdecken im menschlichen Gehör leise hohe Klänge (diese "unhörbaren" leisen Klänge können reduziert werden). Ein Poptitel (3-5 min) benötigt in CD-Qualität etwa 30-50 MB (WAV-Datei). Eine MP3-Datei (gleiche Qualität) benötigt dafür 3-5 MB. MP3 reduziert den Speicherbedarf von Musik auf etwa ein Zehntel.

Da MP3-Dateien haben ein Headerless-File-Format und damit für Streaming geeignet (während des Downloads bereits anhören) . MP3-Dateien benötigen zum Abspielen einen MP3-Player (WinAmp für Windows, MacAmp für Apple, QuickTime ab Version 4.0, Microsoft Media Player ab Version 6.1).

Die MPEG-Kompression zerlegt das Videosignal in drei Typen von Frames:

  • Intra-Frames (I-Frames = unbewegte JPEG-Bilder)
  • Predicted-Frames (P-Frames = Differenzen zwischen den Intra-Frames )
  • Bidirectional-Frames (B-Frames, codieren die Differenzen zwischen Intra- und Predicted-Frames)

Jeder Frame wird wiederum in drei so genannte Planes für die Farbwerte zerlegt (eine Plane für die Leuchtdichte = Luminanz, zwei Planes für die Farbart = Chrominanz-Werte. Alle Planes werden in Blöcke von 8×8 Pixel gerastert und wie JPEG-Formate weiter codiert ( Discrete-Cosine-Transformation DCT) und sodann mit Huffmann-Tabellen komprimiert. Die Komprimierung funktioniert wie bei JPEG: Ähnliche Farbwerte werden zusammengefasst; die Anzahl der somit als gleichwertig definierten Farbfelder wird in Tabellen gespeichert.

Alle MPEGs besitzen drei Layer: je einen für Video, Audio und System. MPEG leistet Kompressionsraten von maximal 180:1, gebräuchlich sind Raten von etwa 80:1 (S-VHS auf MPEG-1).

MPEG-1 (entwickelt 1991/92, ISO 11172) reduziert das TV-Signal von original 166 Mbit/s auf 1,5 Mbit/s (1,2 Mbit/s für Video, 386 Kbit/s für Audio). MPEG-1 leistet am Monitor 352×240 Pixel bei 30 Frames pro Sekunde.
MPEG-2 (ISO 13813) leistet im Gegensatz zu MPEG-1 die volle Auflösung eines TV-Signals (704 × 480 Pixel beim US-Format NTSC, 704×576 Pixel beim deutschen PAL-Format) mit einer Datenrate von 6 Mbit/s. MPEG-2 ist voll abwärtskompatibel zu MPEG-1.
MPEG-4 (ISO 14496) wurde für interaktive Anwendungen entwickelt (1993-1998) und leistet 174×144 Pixel bei 10 Hertz. Die Datenrate wurde mit 4.8 KBit/s bis 64 Kbit/s bewusst sehr gering gehalten, damit Videotelefone ( Bildtelefone), Multimedia E-Mail, elektronische Zeitungen u.a. Anwendungen ermöglicht werden.

BIFS: Binary Format for Scene Description AudioBIFS: Physical Nodes, Perceptual Nodes (BIFS: Binary Format for Scene Description)

  • DirectiveSound
    – source (allows connection to an audio stream)
    – location, direction, intensity, speedOfSound (for Doppler e?ect)
    – angles, directivity ?lters
    – useAirabs, spatialize, roomE?ect ?ags
  • AcousticScene
    – late reverberation reverbTime, reverbLevel, reverbDelay
    – center, size of bounding box
    (which must contain DirectiveSound nodes and ListeningPoint or ViewPoint)
  • AcousticMaterial
    – attached to IndexedFaceSet of polygons and AcousticScene
    – acoustic re?ectivity and transmissivity ?lters
    – visual properties (color, transparency, . . .)
  • Perceptual Nodes
    (PerceptualParameters, child of DirectiveSound, perceptual parameters, source presence, room presence, warmth, brilliance, envelopment, late reverberance, heavyness, liveness are linked to energetic parameters obtained by the time-frequency energy distribution of the room impulse )
MPEG4 nach E.D.Scheirer

MPEG4 nach E.D.Scheirer: mpeg4.jpg

Typische Multimedia-File-Formate

Der "Windows Media Player" kennt die folgenden Formate:

File type (format) File name extension
AU (UNIX) audio files .au and .snd
Audio Interchange File Format (AIFF) audio files .aif, .aifc, and .aiff
CD audio disc .cda
DVD-Video disc .vob
JPEG picture file .jpg
Macromedia Flash animation file .swf
Microsoft Recorded TV Show .dvr-ms
MP3 audio files .mp3 and .m3u
MPEG video files .mpeg, .mpg, .m1v, .mp2, .mpa, .mpe, .mp2v, and .mpv2
Musical Instrument Digital Interface (MIDI) audio files .mid, .midi, and .rmi
Windows audio and video files .avi and .wav
Windows Media audio and video files .asf, .asx, .wax, .wm, .wma, .wmd, .wmp, .wmv, .wmx, .wpl, and .wvx
Windows Media Player skin file .wmz
Multimedia-Programmierung

Das Multimedia-Steuerelement Media Control Interface (MCI) unterstützt Geräte wie z.B.:

  • Soundkarten
  • MIDI-Sequencer
  • CD-ROM und DVD-Laufwerke
  • Audio-Player
  • Videodisc-Player
  • Videorecorder bzw. Videoplayer
Multimedia-Formate

Verbreitet sind derzeit folgende Formate:

Audio-Datei *.wav, *.snd,*.au, *.aif, *.aifc, *.aiff, *.wma, *.mp3
Midi-Datei *.mid, *.rmi, *.midi
Video-Datei *.mpeg, *.mpg, *.m1v, *.mp2, *.mpa, *.mpe, *.avi (Audio Video Interleaved, Clips ohne Klangunterstützung), *.wmv
Windows Media-Datei *.asf, *.wm, *.wma, *.wmv
Medienwiedergabeliste *.asx, *.wax, *.m3u, *.wvx, *.wmx
CD-Audiospur *.cda
⁝ Multimedia und Optik
Computer Grafik

Die generative Computer Grafik behandelt künstlich hergestellte Bilder, die programmgesteuert aus geeigneten Datenstrukturen erzeugt, manipuliert und ausgegeben werden.

Grafischen Grundtypen sind

  • Pixel (Menge von Farbpunkten),
  • Linien (Vektoren),
  • Flächen (Rastergrafikbereich, analytisch),
  • Texte (ASCII, UNICODE, Bitmap, True Type),
  • Objekte (Menge von topologischen Strukturen)

Mit diesen Typen können Bilder, Zeichnungen, Tabellen, Pläne, usw. erzeugt werden.

Bildverarbeitung

In der Bildverarbeitung wird eine Menge von n x m Farbpunkten (Pixels) bearbeitet, die z.B. durch Digitalisieren einer Photographie oder von elektronischen Video - Aufnahmen (TV-Bilder, Satellitenbilder, medizinische Bilder) erhalten werden. Das Bild ist unstrukturiert. Außer Pixeln gibt es keine Bild - Objekte.

Die Bildverarbeitung beschäftigt sich mit Verfahren zur besseren Bilderkennung und - Darstellung.

Die Aufgaben der Bildverarbeitung sind:

  • Bildverbesserung durch Kontraständerungen,
  • Unterdrückung von Hintergrundstörungen,
  • Konturerfassung und Bildauswertungen,
  • Bildverbesserung mit Bildoperatoren.
Bildanalyse

Wie bei der Bildverarbeitung ist eine Menge von n x m Farbpunkten (Pixels ) vorgegeben. Die Bildanalyse versucht, in dem unstrukturieren Bild zusammengehörende Pixel - Muster zu finden, einzuordnen und zu erkennen ( Mustererkennung, pattern recognition). Durch eine solche automatische Zerlegung der Pixelmengen in Teil und Urbilder sollen Strukturen und Objekte (Dreiecke, Kreise, usw.) gefunden und identifiziert werden. Mit den gefundenen Objekten kann das Bild als eine Darstellung von Objekten betrachtet werden. Es ergeben sich andere Datenstrukturen, die dann gespeichert, transformiert und verarbeitet werden.

Bei der Bildanalyse werden Methoden der Computergrafik und der Bildverarbeitung verwendet. Das automatische Erkennen von unterschiedlichen, komplizierten Formen und Mustern stellt eine schwierige Aufgabe dar.

Die geometrischen Daten umfassen die Objektart, Objektposition im Bild, Objektgröße, Objektlage, Objektdarstellung.

Die topologischen Daten beschreiben die Zusammenhänge zwischen den Objekten eines Bildes (z.B. Wechselbeziehung von Teilobjekten, Nachbarschaften, Bildhierarchien, Attributindizierung, usw.). Ausgehend von einer Grundmenge von Standard - Komponenten werden Objekte höherer Ordnung zusammengesetzt.

Bilddatenreduktion

Ein Bild mit 1024x1024 Pixel bei 24 Bit Farbtiefe ergibt einen Speicherbedarf von 3 MB. Kompressionsverfahren versuchen, diesen Speicherbedarf zu reduzieren. Es gibt verlustfrei Entropie - Encoder und verlustbehaftete Kompressionsverfahren. Für ein Kompressionsverfahren sind wichtig:

  1. Schnelligkeit (wie lange dauert die Komprimierung?),
  2. Universalität (auf welche Daten anwendbar?, Verlustlose Komprimierung? ),
  3. Realisierbarkeit (einfacher Algorithmus?),
  4. Hardware - Voraussetzungen (Speicherbedarf während der Komprimierung? ).
Farben und Farbmetrik Allgemeines

Der Begriff "Farbe" hat Bezüge zu Physik, Technik, Kunst, Kultur, Psychologie, Physiologie, Biologie, Neurophysiologie, Neurowissenschaft, Psychophysik, Neurowissenschaft, Kognitive Psychologie, Optometrie, Fotometrie, Ophthalmologie, Unaufmerksamkeitsblindheit, Veränderungsblindheit, Imagination Kognitive Psychologie, Optometrie, Ophthalmologie, Imagination.

Der Begriff Farbe ist abhängig von Bezugssystemen und in verschiedenen Systemen ist Farbe verschieden von Farbe. Farben ( und Vorstellungen und Bilder ) sind physiologisch bedingt und erfahrungsspezifisch. Siehe z.B. de.wikipedia Evolution des Auges , ZapfenEmpfindlichkeit des Auge Funktionsmechanismus der Bilderzeugung , Visuelles System , Visuelle Wahrnehmung , mehr technisch Farbmetrik .

Die Farbenlehre ist die Lehre der Farbe als physiologisches Phänomen. Siehe z.B. eine allgemeine Einführung bei de.wikipedia Farbenlehre

de.Wikipedia: Grundfarben entsprechen den nutzbaren Farbmittel, die zu einer bestimmten Farbwahrnehmung gemischt werden können. Die Grundvalenzen ( X, Y, Z ) spannen einen Rot-, Grün-, Blau-Valenz-Farbraum auf. Es gibt z.B. den RGB-Farbraum, das CMYK-Farbmodell, den HSV-Farbraum.

Zahlreiche fundierte Informationen zu Licht und Farbe hat Prof.(em) Dr. Dietrich Zawischa ( Institut für Theoretische Physik, Universität Hannover, seit 2003 im Ruhestand ) zusammengetragen. Einige Stichworte: Feuer und Glut; Quantenmechanik für Nichtphysiker, Atomare Linienspektren; Farbstoffe und Kristalle; Mineralien und Pigmente; Regenbogen, Streuung, Beugung und Interferenz, Brechung, Dispersion; Farben und Gehirn, Farben bei längerem Augenreiben, Farben bei Blendung durch zu helles Licht, physiologisch bedingte Sinnestäuschungen; Kleine Farbenlehre, Farbmetrik, Farbe für den Bildschirm; Weblink Dietrich Zawischa Homepage

Es gibt Sub-Weblinks: Einführung in die Farbenlehre ohne mathematische Formeln; Farbmetrik und die CIE-Diagramme – Vorlesung: Skript + Bilder; Farbwiedergabe, das kontinuierliche Spektrum, Bunte Bilder in PostScript programmieren; Quelltexte.
Wie kommt Farbe zustande? , Farbenlehre

Farbmetrik

Die Farbmetrik benutzt mathematischer Beschreibungen für Farben. Die Grundlage ist das CIE - Diagramm (Commision Internationale de l´Eclairage, 1931). Die physiologischen Eigenschaften des Auges waren 1931 noch nicht hinreichend bekannt. Grassmann hatte bereits 1853 gezeigt, daß zwischen 4 Farbvalenzen immer eine lineare Beziehung besteht. Deshalb wurden 3 Helligkeits - Verteilungsfunktionen X, Y, Z als Grundfarben gewählt. Sind r, g, b baryzentrische Koordinaten der Farbe F = r . X + g . Y + b . Z, so ist r + g + b = 1. Zur Darstellung genügen 2 Grund - Farben. Das 2D - CIE - Diagramm hat die X, Y - Achsen. In dem X, Y - Dreieck sind die Farben eingetragen.

In der Informatik werden die folgenden Farbmodelle eingesetzt:

Modell Variablen Bemerkungen
Licht kontinuierlich exakt aber nicht praktikabel
RGB red,
green,
blue
Additive Farbmischung, Farbbildschirme.
CMY cyan,
magenta,
yellow
Subtraktive Farbmischung, sonst analog RGB
CMYK cyan,
magenta,
yellow,
black
wird in der Druckindustrie verwendet
RYB red,
yellow,
blue
wird zum Zeichnen benutzt
YIQ Intensität
(Luminanz, Helligkeit),
red-Intensität,
blue-Intensität
für TV in USA,
I enthält s/w-Bild,
rb die Farbinformation (Chrominanz)
YUV Intensität,
Farbdifferenzen U, V
PAL, SECAM
HSB hue (Farbton),
saturation (Sättigung),
brightness (Helligkeit)
identisch zu HSV, Java
HSI hue,
saturation,
intensity
für Farbempfinden, Farbbeschreibungen
HSV hue,
saturation,
value
ähnlich HSI, für Computerberechnungen
HLS hue,
lightness,
saturation
ähnlich HSI, für Computerberechnungen

Bei den Farbmodellen werden Komplementärfarben (außer YIQ) nicht benutzt.

RGB-Farbmodell

Das RGB-Farbmodell unterstützt das sogenannte additive Farbmischverfahren. Das additive Farbmischverfahren wird bei Farbbildschirm angewendet. Das durch Fluorezenz erzeugte Licht gelangt direkt in das menschliche Auge gelangt.

Schwarz bedeutet, daß kein Licht das Auge erreicht (Wert = 0). Weiß wird durch die Addition der drei Grundfarben Rot, Grün und Blau erzeugt. Die Intensitäten der drei Primärfarben werden zu einer Gesamtfarbe addiert.
Das RGB-Farbmodell setzt dieses additive Farbmischsystem direkt in ein Zahlenmodell um (dreidimensionaler Vektorraum). Der Farbraum wird durch die Einheitsvektoren Rot, Grün und Blau aufgespannt. Der Ursprung O ist Schwarz. Die mathematische Schreibweise für eine RGB-Komponenten benutzt für r = red, g = green, b = blue jeweils reelle Zahlen zwischen 0.0 und 1.0. Eine Farbe wird in mathematische Schreibweise durch das Tripel (r, g, b) dargestellt. Z.B. werden durch den Java - Konstruktor

 public Color(int r, int g, int b) {
  this(((r & 0xFF) << 16) | ((g & 0xFF) << 8) | ((b & 0xFF) << 0));
 }

die Rot, Grün, Blau - Werte in eine int - Variable umgerechnet.

Das RGB-Farbmodell ist an die Hardware angepaßt. Bei einem Elektronenstrah-Monitor bestehen Pixel aus 3 Phosporpunkten r, g, b. Der Farbbildschirm hat 3 Elektronenkanonen r, g, b, die die zugeordneten r, g, b - Phosporpunkte beschiessen. Die Intensität jeder Kanone kann z.B. in 256 Stufen erfolgen. Die technische Realisierung verwendet für red, green, blue jeweils ein Byte, d.h. eine Farbe wird als 32 bit - Zahl (hex = 0x00bbggrr = #00bbggrr) dargestellt. Das 3. Byte (hier 00) kann spezielle Bedingungen kennzeichnen (Transparenz, Gamma, usw.).

Als 3D-Einheitswürfel haben die acht Ecken die Farben red, green, blue, cyan magenta, yellow, black, white.

Jede Farbe in diesem Würfel wird nun durch ihre Koordinate charakterisiert, die sich jeweils aus den Anteilen der drei Primärfarben rot, grün und blau zusammensetzt. Die Grauwerte befinden sich dabei auf der Würfeldiagonalen von schwarz nach weiß.

In Java wird für Farben "public final class Color { ... }" definiert. Jede Farbe wird durch eine int - Zahl (4 Byte) dargestellt. Beim RGB - Modell werden die Grundfarben Rot, Grün, Blau verwendet. Jede r,g,b - Farbe kann eine ganze Zahl von 0 .. 255 annehmen. Die drei r,g,b - Byte ergeben 2^24 verschieden Farben. Kann ein System nicht alle Farben darstellen, so wird intern eine geeignete Farbe ausgewählt. Die technischen Farbmodelle (RGB) sind für die Ausgabegeräte geeignet.

Musik

Die Schallausbreitung kann mit einer Stimmgabel veranschaulicht werden. Die Stimmgabel wurde 1711 von dem englischen Trompeter und Lautenisten John Shore erfunden. Eine Stimmgabel ist ein U-förmig gebogener Stab (Legierung Chrom, Nickel und Stahl), der durch Schlag oder Reibung zu Querschwingungen angeregt wird. Eine Stimmgabel erzeugt einen klaren, obertonarmen Ton, der unabhängig von kleineren Temperaturschwankungen ist und dadurch zum Einstimmen von Musikinstrumenten (Kammerton A, 440 Hertz) verwendet werden kann. Heute gibt es elektronische Stimmgeräte, die einen reinen Sinuston in der jeweiligen Tonhöhe produzieren.

Schall-Erzeugung mit der Stimmgabel 440 Hz
Verdichtung/Verdünnung
der Luftmoleküle
(Luftdruck-Änderungen)
stimmgabel-prinzip.jpg

Auf einen festen Körper auftreffende Schallwellen üben auf diesen einen rasch wechselnden Druck aus (Schalldruck). Gleichzeitig werden auf den Körper mechanische Größen wie Impuls und Energie (Schallenergie) übertragen.

Wie bei allen Wellenvorgängen tritt auch der Doppler-Effekt auf. Der Schall breitet sich mit Schallgeschwindigkeit aus.

Zur Verstärkung von Schall werden die Druckschwankungen (Musik) mit Mikrofon in elektrische Signale gewandelt, elektrisch verstärkt und mit Lautsprecher wieder in mechanische Schwingungen und Schall transformiert.

Das Wort Ton kommt aus dem lateinischen. In der abendländischen Musik ist der Ton die elementarste Einheit eines Musikstückes. Zu einem Ton gehören Tonhöhe, Klangfarbe, Lautstärke und Tondauer.

Klangerzeugung

Zu den ältesten Saiteninstrumente (Chordophone; griechisch: Saitenklinger ) zählen Harfe und Leier (Orient 3.Jh.v.Chr.). Die Laute entstand etwa ein Jahrtausend später. Nach der Erfindung des Streichbogens (10.Jh.) entstanden Streichinstrumente (Fidel, Rebec, Lira, Trumscheit, Streichzither, Geige, Viola, Viola da gamba, Violine, Violoncello, Kontrabass; außereuropäische Instrumente: Rabab, Kamange, Jozé, Sarangi, Sarinda und Kokyu). Der Ton entsteht durch Anschlagen (Hackbrett, Klavier) oder Anreißen (Gitarre) oder Reiben oder Streichen (Streichinstrumente) oder Anblasen (Äolsharfe).

Für die Klangverbesserung und Laustärke-Erhöhung wird bei vielen klassischen Musikinstrumenten ein Resonanzkörper genutzt:

  • Korpus bei Akustik-Gitarre und Violine,
  • Rohr und Schalltrichter bei den Blasinstrumenten
  • Kessel bei der Pauke
  • Mundraum bei der Maultrommel
  • Resonanzboden beim Klavier,
  • Resonanzfell bei Trommeln

Instrumente dienen der Klang- und Musik-Erzeugung. Die Instrumentenkunde ist eine interdisziplinäre Wissenschaft (Musikwissenschaft, Bau, handwerklich-künstlerischen oder industriellen Fertigung, Physik, Akustik, Klangcharakter, Raumakustik, Kultur, Konzert, Oper, Psychologie und Physiologie des Hörens).

Systematik der Musikinstrumente

Aristoteles (384 v. Chr.-322) unterschied beseelte und unbeseelte Instrumente (menschliche Stimme, mechanische Instrumente). Nikomachos von Gerasa (2.Jh.n.Chr.) unterschied Saiten-, Blas- und Schlaginstrumente. Die neuzeitliche Klassifizierung im 16. und 17. Jahrhundert orientierte sich wieder an Boethius’ Dreiteilung, wenn auch mit zahlreichen Untergruppen und Sonderfällen. Die heute übliche Einteilung der Instrumente geht auf Erich Moritz von Hornbostel (1877-1935) und Curt Sachs (1881-1959) zurück. Dies ist eine naturwissenschaftlicher Klassifikationen nach dem dominanten Schinger (Idiophone = Selbstklinger, Membranophone = Fellklinger, Chordophone = Saitenklinger und Aerophone = Luftklinger). Hornbostel/Sachs-Klassifikation 1948 um die elektronischen Synthesizer.

  • Idiophone (Kastagnetten, Becken, Triangel, Xylophon, Gong, Glocke; Sistrum, Ratsche; Zupfidiophone; Maultrommel; Mbira; Nagelgeige, Glasharmonika; Blasplatten und -stäbe)
  • Membranophone (Kesseltrommeln, Pauke, Röhrentrommeln, Rahmentrommeln, Rasseltrommeln, Zupftrommeln, Reibtrommeln, Ansingtrommeln)
  • Chordophone oder Zithern (Stabzithern, Röhrenzithern, Koto, Valiha, Brettzithern, Zither, Psalterium, Hackbrett, Piano, Cembalo, Schalenzithern, Rahmenzithern, Lauteninstrumente, Bogenlauten, Jochlauten, Leier, Lyra, Kithara, Stiellauten, Violine, Laute, Gitarre, Harfen, Harfenlauten)
  • Aerophone (Orgel, selbstklingende Unterbrechungsaerophone, Peitsche, Schwirrholz, Blasinstrumente, Blockflöte, Querflöte, Rohrblattinstrumente, Oboeninstrumente, Fagott, Klarinetteninstrumente, Saxophon, Schalmei, Trompeten, Alphorn, Fanfare, Chromatische Trompeten, Trompete, Posaune, Waldhorn)
  • Elektrophone (z.B.Synthesizer).

Akustische (klassische) Musikinstrumente nutzen zur Schallverstärkung und Klangbeeinflussung die Geometrie des Resonanzkörpers. Resonanz entspricht dem (starken) Mitschwingen eines Systems (z.B. Körper) in der Schwingung (Grund- oder Obertonbereich) eines anderen, äusseren, anregendem Systems. Resonanzfähig sind z.B.

  • gespannte Saiten
  • eingeschlossene Luft
  • Metall- und Glasstücke
  • Atome und Moleküle in elektromagnetischen Feldern

Auch die menschliche Stimme bedarf der inneren Resonanzverstärkung im Nasen-Rachen-Raum, das Hören der Resonanzschnecke des Ohres (Gesang). Es gibt Menschen, die ein absolutes Gehör haben und ohne akustische Vergleichsmöglichkeit die Tonhöhe bestimmen können. Man ging bislang davon aus, dass diese Fähigkeit nicht erlernt werden kann. Sie ist nach Diese Fähigkeit ist (1999 publiziert) bei Asiaten (Tonsprache, die Bedeutung von Wörtern ist von der Tonhöhen abhängig, z.B. Vietnamesische, Mandarin) überdurchschnittlich ausgeprägt.

Sprache stellt ein komplexes Schallgemisch dar, bei dem viele Frequenzen in (harmonischer) Beziehung zueinander stehen.

Musik kann unmittelbar in der Psyche wirken. Musik hat innere Regeln. Die Modulation kann auf drei Arten erfolgen: diatonisch, enharmonisch oder chromatisch. Modulation kommt aus dem lateinischen und bedeutet modus: Maß. Modus (tonus, tropus) wird in der Musik für Tonart verwendet. Modalität und modal beziehen das (mittelalterliche) Tonarten-System; die Tonalität und tonal auf das Dur-Moll-System.

Diatonisches Beispiel (in C-Dur wird die Dominante g-h-d zur Subdominante von D-Dur),

Enharmonisches Beispiel (aus dem Dreiklang c-e-g wird c-es-gis und dies enharmonisch Sextakkord von As-Dur),

Chromatisches Beispiel (ein gemeinsamer Ton bleibt, die restlichen Töne schreiten chromatisch fort).

In der arabischen und hindustanischen Musik enthält der Begriff des Modus Tonleiterbildungen, Melodiearten, rhythmische Muster und typische Figurierungen. Im 19.Jh. wurden Modulationen in der Musik immer länger und komplexer und verloren zunehmend das tonale Zentrum (Wagner, Bruckner und Mahler). Aus der funktional-tonalen Schreibweise entstand bei bei Schönberg Atonalität.

Musikinstrumente (Frequnzumfang der Grundtöne)

Es gibt Musikinstrumente mit mechanischer, elektro - mechanischer, elektrischer Tonerzeugung.

Große Resonanzkörper geben oft tiefe Töne ab. Die Schallabgabe ist gerichtet. Ist die Ausdehnung der Schallquelle kleiner als die Wellenlänge der Schall - Abstrahlung, so verhält sich die Schallquelle kugel - symmetrisch. Klassische Musikinstrument können maximal ein Watt abgeben.

Die folgende Skizze zeigt den Frequnzumfang (Grundtöne) einiger Instrumente.

instrumente mit Frequenzbereich der oberwellen
Klavier (Basis für MIDI-Idee)

Bei einem Klavier werden die Töne durch das Anschlagen der Saiten erzeugt. Ist S die Spannkraft der Saite [ kg m/s/s ], m die mitschwingende Masse pro Längeneinheit [ kg / m ] und l die schwingende Saitenlänge [ m ], so schwingt eine Saite mit der Frequenz f [ Hz = 1/s ].

      sqrt(S / m) 
 f = ---------------
          2 . l

Saiten-Instrumente werden durch die Spannkraft S der Saite auf die richtige Frequenz f gestimmt. Zum genauen Abgleich wird die Schwebung benutzt.

Bereits bei der Frequenz-Zuordnung der Tonleiter (c, c#, d, d#, e, f, f#, g, g#, a, a#, h) wird zwischen temperierter, pythagoräischer und der reiner Dur - Stimmung unterschieden. Erklingen reine Oktaven (Frequenzverhältnis 2:1), so ist keine Schwebung zu hören. Klavier-Saiten haben nicht nur eine mechanische Spannung, sondern auch eine geringe Steifheit. Dadurch erklingen die höheren Partialtöne nicht exakt mit dem ganzzahligen Vielfachen der Grundfrequenz f0, sondern ein wenig höher als 2.f0, 3.f0, 4.f0, ..., usw. Damit keine Schwebung entsteht wird ein Klavier meistens gespreizt gestimmt, d.h. das Frequenzverhältnis einer Oktave liegt etwas über 2.00. Dies wird im folgenden vernachlässigt.

Die kleine Terz (e - g) hat ein theoretisches Frequenzverhältnis von 6/5.
Die kleine Sexte (e - c) hat ein theoretisches Frequenzverhältnis von 8/5.











c#










d#















f#










g#










a#

















t: 0.00
p: 0.00
d: 0.00




c


t: 2.00
p: 2.04
d: 2.04




d


t: 4.00
p: 4.08
d: 3.86
grosse
Terz
5/4

e


t: 5.00
p: 4.98
d: 4.98

Quarte
4/3

f


t: 7.00
p: 7.02
d: 7.02

Quinte
3/2

g


t: 9.00
p: 9.06
d: 8.84
grosse
Sexte
5/3

a


t:11.00
p: 11.10
d: 10.88




h


t:12.00
p: 12.00
d: 12.00

Oktave
2/1

c
Tonleiter (t: temperiert, p: pythagoräisch, d: c-dur, rein)
Elektrische Tonerzeugung

Die elektrische Tonerzeugung verwendet Schwingungserzeuger (Clock, Generator) mit speziellen Wellenformen.

Bei einem Oszillator tritt Selbsterregung ein, wenn

1 = r . v . exp(w[r] + w[v] )

ist. Hierbei ist v = Verstärkungsfaktor, r = Röckkopplungsfaktor, w = Phasenwinkel.

Elektrische Orgeln enthalten heute u.a.

  • Tastatur (keyboard) und
  • Sequenzer

Der Sequenzer kann Tonhöhen, Lautstärke, Klangfarbe digital speichern. Bei der Tonerzeugung können

  • Anstieg (Attack),
  • Abfall (Decay),
  • Aushalten (Substain),
  • Freigabe (Release).

beeinflußt werden.

MIDI

MIDI ist eine Abkörzung von Musical Instrument Digital Interace. MIDI ist eine digitale Schnittstelle für elektronische Musikinstrumente.

Eingeföhrt wurde

1987: der Midi Time Code, Sample Dump Standards, 
1988: Standard - Midi-File, Befehl zum Zuröcksetzen aller Controller, 
1990: Bank Select Befehl, 
1991: All - Sound Off Befehl, Midi Show Control, General Midi, Micro Tuning, 
1992: Machine Control.

Die Midi - Schnittstelle arbeitet als serielle Schnittstelle (RS 232 C bei 31.25 kB/s). Auf 3 Leitungen werden die Signale nacheinander öbertragen. Die Bits der Stromschleife (5 mA current loop) haben die Bedeutung:

0 = Strom an, 1 = Strom aus.

Alle MIDI - Instrumente haben 5 polige DIN- Buchsen, die zum Verbinden der Instrumente dienen:

  • Buchse "in" mit nachfolgenden Opto - Koppler,
  • Buchse "out" mit Masse - Anschluß,
  • Buchse "thru" mit Masse - Anschluß zum direkten Weiterleiten von in - Signalen.
Durch diese serielle Schnittstellen können Musiksynthesizern, anderen Musikinstrumente und Computern angeschlossen werden. MIDI-Geräte senden mit MIDI-Nachrichten ihre eigenen Mitteilungen an andere Geräte durch den MIDI-Out-Port. Eine MIDI-Nachricht enthält die musikalischen Informationen wie Tonhöhe und Lautstärke in digitaler Form. Mit MIDI-Geräten kann man Musik und Töne erzeugen, sie aufnehmen und auch wieder abspielen. Durch den Einsatz von MIDI können Computer, Synthesizer und Sequenzer miteinander kommunizieren, um entweder Zeit zu sparen oder die Musik zu steuern, die durch andere Geräte erzeugt wird. Die Standardisierung von MIDI durch die wichtigsten Synthesizer-Hersteller hat zu dem Erfolg von Computern im Musikgeschäft beigetragen.

Die Signal - Übertragung besteht aus einem Bit - Strom:

  • 1 Start-Bit,
  • 8 Daten-Bit (D0, D1, ..., D7),
  • 1 Stop-Bit.

Die Hardware öbernimmt die Verwaltung der Start- und Stop - Bits. Deshalb betrachten wir lediglich die Daten-Bits (D0, D1, ..., D7).

Midi - Message

Ein Midi - Befehl (Midi - Kommando, Midi - Nachricht, Midi - Meldung, Midi - Message) enthält Status- und DatenBytes. Ist in einem empfangenen Byte das 7. Bit gesetzt, so liegt ein Status-Byte vor, sonst ein Daten-Byte:

Ein Midi - Befehl besteht aus

  • Channel - Message - Byte (Status - Byte >= 0x80),
    dem bis zu 2 Daten - Bytes (< 0x80) folgen können,
  • oder einem
    System - Message - Byte
    (System - Exklusiven - Nachricht SysEx=0xf0, ... EOX= 0xf7, System - Common - Message, System - Real - Time - Message)
Übersicht zu dem MIDI-Befehlen
Befehlsname Status 1.Daten
Byte
2.Daten
Byte
C
H
A
N
N
E
L
C
H
A
N
N
E
L

V
O
I
C
E
Note off 8x Tonhöhe Velocity
Note on 9x Tonhöhe Velocity
Polyphonic
Afterrouch
ax Tonhöhe Druck
Control
Changes
bx 00 Bank MSB 00..7f
bx 01 Modulation 00..7f
bx 02 Atem 00..7f
bx 04 Fuss 00..7f
bx 05 Porta Zeit 00..7f
bx 06 Dateneingabe 00..7f
bx 07 Gesamtlautstärke 00..7f
bx 08 Balance 00..7f
bx 0a Pan 00..7f
bx 0b Expression 00..7f
bx 10..13 allCtrl 01..04 00..7f (s.u.)
bx 20..3f LSB 00..1f 00..7f (s.u.)
bx 40 Substain 00/7f
bx 41 Portamento 00/7f
bx 42 Haltepedal 1 00/7f
bx 43 Dämpferpedal 00/7f
bx 44 Legato 00/7f
bx 45 Haltepedal 2 00/7f
bx 46..4f SoundCtrl 00..7f (s.u.)
bx 50..53 allCtrl 05..08 00..7f (s.u.)
bx 54 PortCtrl 00..7f
bx 5b..5f EffektCtrl 00..7f (s.u.)
bx 60 Data + 7f
bx 61 Data - 7f
bx 62..63 nicht RPN 00..7f (s.u.)
bx 64..65 RPN 00..7f (s.u.)
M
O
D
E
All Sound off bx 78 00
Reset
all Controllers
bx 79 00
Local on/off bx 7a 00/7f
all Notes off bx 7b 00
Modes bx 7c..7f 00..0a
Program Change c. Nummer  
Channel Aftertouch d. Druck  
Pitch Weel ex LSB MSB
S
Y
S
T
E
M
System Exlusive f0    
C
O
M
O
N
Time Code
MTC
f1 Nachrichtetyp  
Song Position f2 LSB  
Song Select f3 Song Nummer  
Tune Reuest f6    
EOX f7    
R
E
A
L
Timing Clock f8    
Start fa    
Continue fb    
Stop fc    
Active Sensing fe    
System Reset ff    
Übersicht zu dem MIDI-Befehlen

System - Meldungen gehen an alle angeschlossenen Slaves und enthalten deshalb keine Kanal - Nummer im niederwertige Befehl - Nibble, sondern das niederwertige Nibble (D3, D2, D1, D0) spezifiziert die Systemmeldung.

Beispiel:

Der "Note On" ist ein 3 Byte-Befehl 9x, Tonhöhe, Velocity). Die Bytes haben die Bedeutung:

  • Tastenanschlag (Status incl. Kanal-Nummer 0x0 .. 0xf),
  • Nummer der Taste(0x00 .. 0x7f),
  • Anschlagstärke (0x00 .. 0x7f)

Beispiel zu
Note On

Der Befehl "Note on" bestehe aus den Bytes

0x90, 0x3c, 0x40:

0x90: bedeutet 9 = Note On, 0 = Kanal-Nummer, 
0x3c: bedeutet Taste 60, 
0x40: bedeutet mittler Anschlagstärke 64.

Beispiel zu
Channel Voice Message

Channel Voice Message-Befehle werden zum elektrisch gesteuerten "Spielen der Tastatur" oder eines anderen Controllers (auch z.B. für eine Lichtorgel) verwendet. Es gibt 7 verschiedene Status-Typen (8, 9, a, b, c, d, e, f):

Übersicht zu den Channel Voice Messages
Befehl Staus-
Byte
1. Daten-
Byte
2. Daten-
Byte
Anzahl
Bytes
Note Off 80..8f Tonhoehe Ausschwingen 3
Note On 90..9f Tonhoehe Anschlag 3
Poly Key Pressure a0..af Tonhoehe Druckstaerke 3
Control Change b0..bf Controller Wert 3
Program change c0..cf Nummer   2
Channel Pressure d0..df Druckstaerke   2
Pitch Wheel Change e0..ef LSB MSB 3

Das niederwertige Nibble im Status - Byte legt die Kanal-Nummer fest. Die Tonhöhe wird bei "Note On" und "Note Off" im 1. Dabenbyte als Zahl 0x01 .. 0x7f gesendet.

Beispiel zu
Note On/Off

Note On 9x: Kanal-Nummer im
niederwertigen Nibble x
0x45: Kammerton a 0x80: mittlere Anschlagstärke
0x00: Note off
Note Off 8x: Kanal-Nummer im
niederwertigen Nibble x
0x45: Kammerton a 0x40: falls keine
Ausschwingdynamik vorhanden ist

Hat ein Gerät keinen dynamischen Anschlag, so sollte bei "Note On" für den Anschlag (Velocity) 0x40 gesendet werden. "Note On" kann als "Note Off" wirken, wenn Anschlag 0x00 verwendet wird.

Nach erfolgtem Anschlag kann mit "Aftertouch key´s" ein "Nachdröcken" auf die Taste angegeben werden. Dies entspricht einem erneuten Dröcken einer bereits angeschlagenen Taste.

Mit Control Change können Instrument-Effekte gesteuert werden, die keine Tastatur benötigen (Modulation.Weel, Breath-Control, Substain-Pedal, Portamento-Pedal, usw.). Nach dem Status-Byte wird das Identifizierungs-Byte für den Contoller und ein Wert öbertragen, der die folgende Bedeutung hat:

Midi-Frequenzen und "Tasten-Nummer"

Die MIDI-Bezeichnung für Noten-Höhen sind an die Musiker-Bezeichnung angelehnt. Der Kammerton "a" mit f = 440 Hz hat die Midi-Nummer a3 = 0x2d = 45.

Tabelle der MIDI - Töne (Tasten Nummer t = 0 .. 127)
Midi Klavier Musiker c c# d d# e f f# g g# a a# h
c0 C[3] S 00 01 02 03 04 05 06 07 08 09 0a 0b
c1 C[2] s 0c 0d 0e 0f 10 11 12 13 14 15 16 17
c2 C[1] K 18 19 1a 1b 1c 1d 1e 1f 20 21 22 23
c3 C g 24 25 26 27 28 29 2a 2b 2c 2d 2e 2f
c4 c k 30 31 32 33 34 35 36 37 38 39 3a 3b
c5 c^1 1 3c 3d 3e 3f 40 41 42 43 44 45 46 47
c6 c^2 2 48 49 4a 4b 4c 4d 4e 4f 50 51 52 53
c7 c^3 3 54 55 56 57 58 59 5a 5b 5c 5d 5e 5f
c8 c^4 4 60 61 62 63 64 65 66 67 68 69 6a 6b
c9 c^5 5 6c 6d 6e 6f 70 71 72 73 74 75 76 77
c10 c^6 6 78 79 7a 7b 7c 7d 7e 7f        
    Musiker-Bezeichnung
S= SubSubKontra-, s=SubKontra-,
K=Kontra-Oktave, g=große-,
k=kleine-, 1=eingestrichene-, 2=zwei-gestrichene Oktave, usw.

Die Klavier-Tasten-Nummer entspricht der MIDI-Nummern t. Diese MIDI-Nummer t entspricht einer festgelegte Frequenz. Der Kammerton "a" hat die Midi-Nummer t = 45 und mit der Formel

f(t) = 32.7031957 . 2^t/12 Hz mit t = 0 .. 127

ergibt sich die temperierte Frequenzen f(45) = 440 Hz. Die folgenden Tabelle enthält die temperierte Frequenzen.

temperierte MIDI-Frequenzen f(t) = 2^(t+60.37631655)/12 Hz mit t = 0 .. 127
  c c# d d# e f f# g g# a a# h
c0 32.70320 34.6478 36.7081 38.8908 41.2034 43.6535 46.2492 48.9994 51.9130 55.000 58.2704 61.7354
c1 65.4064 69.2956 73.4162 77.7817 82.4069 87.3070 92.4986 97.9988 103.826 110.000 116.540 123.470
c2 130.812 138.591 146.832 155.563 164.813 174.614 184.997 195.997 207.652 220.000 233.081 246.941
c3 261.625 277.182 293.664 311.127 329.627 349.228 369.994 391.995 415.304 440.000 466.163 493.883
c4 523.251 554.365 587.329 622.253 659.255 698.456 739.988 783.990 830.609 880.000 932.327 987.767
c5 1046.50 1108.73 1174.65 1244.50 1318.51 1396.91 1479.97 1661.21 1760.000 1864.65 1975.53
c6 2093.00 2217.46 2349.31 2489.01 2637.02 2793.82 2959.95 3135.96 3322.43 3520.000 3729.31 3951.06
c7 4186.00 4434.92 4698.63 4978.03 5274.04 5587.65 5919.91 6271.92 6644.87 7040.000 7458.62 7902.13
c8 8372.01 8869.84 9397.27 9956.06 10548.00 11175.30 11839.80 12543.80 13289.70 14080.000 14917.20 15804.20
c9 16744.00 17739.60 18794.5. 19912.10 21096.10 22350.60 23679.60 25087.70 26579.50 28160.000 29834.40 31608.50
c10 33488.00 35479.30 37589.00 39824.20 42192.30 44701.20 47359.20 50175.40        

Natürlich ist Musik mehr als eine Ansammlung von Tönen. Für das Einschwingverhalten und die Oberwellen der Töne gibt es zugeordnete parametrisierte Verfahren, die von dem Abspielgerät abhängen.

Bit: 7 6 5 4 3 2 1 0
Status-Byte: 1 x x x x x x x
Daten-Byte: 0 x x x x x x x
⁝ Answendungsbereiche von Multimedia

Answendungsbereiche: Öffentlich
Öffentliche Answendungsbereiche
mm-anwendungen-oeffentlich.gif
Privat
Private Answendungsbereiche
mm-anwendungen-privat.gif
Geschäftliche
Geschäftliche Answendungsbereiche
mm-anwendungen-geschaeftlich.gif
Industrie
Die folgenden Industrien sind direkt an diesen Entwicklungen beteiligt:
  • Produktion von audiovisuellen Medien (AV-Medien), Unterhaltungselektronik
  • Computertechnik, Telekommunikation, usw.
Hierbei ist die Entwicklung, der Transport und die interaktiver Verwendung von multimedialen Dokumente wesentlich. Einige Stichpunkte sind:
  • Superhighway of Information
  • Megatrend zur Mediengesellschaft, Visuelle Unternehmen, Datawarehouse, Global Network Economy