Schattenblick →INFOPOOL →MEDIZIN → TECHNIK

FORSCHUNG/029: Besser Hören dank Algorithmen (RUBIN)


RUBIN - Wissenschaftsmagazin, Frühjahr 2011
Ruhr-Universität Bochum

Besser Hören dank Algorithmen

Wie digitale Signalverarbeitung Hörgeräte verbessert und die Kommunikation erleichtert

Von Rainer Martin und Timo Gerkmann


Ist da vielleicht ein Mini-Ozean drin? Versunken lauscht das kleine Mädchen dem Meeresrauschen. Weil durch Umgebungsgeräusche die Luft im Schneckengehäuse hin und her schwingt und sich dabei manche Schwingungen verstärken, hat jede Muschel ihr ganz eigenes Rauschen. Weniger faszinierend kann rauschen sein, wenn es in Umgebungen mit vielen Nebengeräuschen die Sprachübertragung in Hörgeräten stört - wie das in Fahrzeugen oder Restaurants der Fall sein kann. Neue Verfahren der Signalverarbeitung mit hoher Zeit- und Frequenzauflösung der Geräusch- und Sprachspektren und gewichteter Dämpfung und Verstärkung der Signale sollen die Sprachverständlichkeit durch Hörgeräte verbessern.


Sprache ist der Schlüssel zur Welt (Wilhelm von Humboldt). Erfolgreiche Sprachkommunikation setzt aber auch gutes Hören voraus - dementsprechend kann ein Hörverlust die Kommunikation und damit auch soziale Kontakte erheblich erschweren. Allein in Deutschland sind schätzungsweise 15 Millionen Menschen von einem Hörverlust betroffen. Ein Hörverlust kann vielfältige Ursachen haben, von der verschleißbedingten Altersschwerhörigkeit bis hin zu übermäßig lautem Musikgenuss in Diskotheken oder über MP3-Abspielgeräte.

Hörgeräte können den Hörverlust teilweise kompensieren, sodass mit modernen, gut angepassten Geräten die Kommunikation in ruhiger Umgebung meist gelingt. Besondere Herausforderungen stellen sich aber immer noch in Umgebungen, in denen Geräusche und Raumhall die Kommunikation stören, wie in Fahrzeugen, Restaurants und Kirchen. Selbst mit gesundem Gehör sind in so manchem Bahnhof die Lautsprecherdurchsagen kaum zu verstehen, weil der Nachhall und die Umgebungsgeräusche die Sprachinformation verschleiern. Eine zentrale Aufgabe moderner Hörgeräte besteht deshalb darin, durch digitale Sprachsignalverarbeitung Umgebungsgeräusche zu unterdrücken und die Sprachverständlichkeit zu verbessern.

Das gesunde Gehör weist eine Reihe besonderer Fähigkeiten auf, die sich unter anderem in der Hörfläche mit ihrem hohen Frequenz- und Dynamik-(Lautstärke)umfang widerspiegeln. Die Hörfläche gibt den vom gesunden Gehör wahrnehmbaren Tonumfang an (s. Abb. 3, links). Sie ist im Bereich leiser Töne durch die Ruhehörschwelle und im Bereich lauter Töne durch die Schmerzschwelle begrenzt. Die am weitesten verbreitete Form des Hörverlusts (sensorineuraler Hörverlust) ist durch eine deutlich angehobene Hörschwelle bei hohen Frequenzen (s. Abb. 3, rechts) und durch eine Reduktion der Frequenzauflösung charakterisiert. Beide Effekte führen zu einer schlechteren Sprachverständlichkeit, besonders weil die für das Sprachverständnis wichtigen Konsonanten nicht mehr gehört werden. Die angehobene Hörschwelle kann durch eine Verstärkung des akustischen Signals im Hörgerät ausgeglichen werden. Allerdings ist dabei zu beachten, dass die Unbehaglichkeits- und die Schmerzschwellen nicht ebenfalls ansteigen und somit der Dynamikbereich gegenüber dem gesunden Gehör eingeschränkt ist. Ein einfaches Verstärken des akustischen Signals ist daher ungeeignet, stattdessen muss das Sprachsignal in den verbleibenden Teil der Hörfläche komprimiert werden. Die reduzierte Frequenzauflösung verschlechtert besonders bei Umgebungsgeräuschen das Sprachverstehen, da dann Teile des Sprachsignals durch die Geräusche verdeckt werden und nicht mehr hörbar sind. Der reduzierten Frequenzauflösung kann mit einer Geräuschreduktion begegnet werden. Diese vermindert den Einfluss der maskierenden Geräusche.

Digitale Hörgeräte sind hochspezialisierte Miniaturcomputer, die schon heute eine Reihe komplexer Signalverarbeitungsfunktionen erfüllen. Die Signalverarbeitung wird in einem hochintegrierten Schaltkreis realisiert. Die grundlegende Funktion eines Hörgerätes besteht zunächst darin, den von den Mikrofonen aufgenommenen Schall dem Hörverlust entsprechend zu verstärken, in der Dynamik zu komprimieren und über den Lautsprecher wiederzugeben. Hierbei möchte man nur den Nutzschall, zum Beispiel das Sprachsignal des Gesprächspartners, verstärkt wiedergeben und störende Umgebungsgeräusche unterdrücken. Daher ist eine Geräuschreduktion in vielen Geräten verfügbar. Neueste Hörgeräte besitzen auch eine Funkschnittstelle für die drahtlose Verbindung von linksseitigem und rechtsseitigem Gerät und für die Kommunikation mit einer Fernbedienung oder mit Audio- oder Kommunikationsgeräten wie MP3-Abspielgeräten und Mobiltelefonen. Auch die automatische Analyse der akustischen Umgebung ist bereits möglich, durch die sich die Signalverarbeitung steuern und Daten im Gerät zur späteren Analyse durch den Hörgeräteakustiker und besseren Anpassung des Geräts aufzeichnen lassen. Neuere Entwicklungen, wie zum Beispiel die offene Anpassung, bei der der Gehörgang nicht mehr durch eine sog. Otoplastik verschlossen ist (s. Abb. 2, S. 15), erfordern zudem sehr leistungsfähige Algorithmen für die Unterdrückung von Rückkopplungen zwischen Lautsprecher und Mikrofonen.

Große Herausforderungen bei Entwurf und Realisierung von Hörgeräten ergeben sich durch den geforderten extrem geringen Leistungsverbrauch: Ein Hörgerät soll mit einer einzigen Batterie mehrere Tage nutzbar sein. Daraus folgt, dass das komplette System mit allen analogen und digitalen Komponenten und der Funkschnittstelle nur eine elektrische Leistung im Milliwatt-Bereich aufnehmen darf. Eine weitere kritische Randbedingung ergibt sich insbesondere bei Systemen mit offener Anpassung aus der Überlagerung von direktem akustischen Schall und über das Hörgerät übertragenem Schall am Trommelfell: Wenn der vom Hörgerät übertragene Schall verzögert eintrifft, führt die Überlagerung zu störenden klanglichen Verfärbungen. Das Hörgerät soll daher die Mikrofonsignale um weniger als 10 ms verzögert über den Lautsprecher abstrahlen.

Die meisten hinter dem Ohr getragenen Geräte besitzen heute zwei Mikrofone. Jedes nimmt den Schall aus allen Richtungen gleichermaßen auf. Die Mikrofone können bei Bedarf zu einem Richtmikrofon zusammengeschaltet werden und bilden dann ein räumliches Filter, das Schall aus bestimmten Richtungen unterdrücken kann. Bei Hörgeräten nimmt man an, dass der Nutzschall (Gesprächspartner) von vorne und der störende Schall seitlich oder von hinten auftreffen. Das Prinzip dieses Richtmikrofons zeigt Abb. 4: Zwei Mikrofone sind mit einem Abstand d in ein Hörgerät eingebaut. Die Laufzeit des Schalls zwischen den Mikrofonen und eine weitere elektronische Signalverzögerung T spielen hier eine wesentliche Rolle. Setzt man die elektronische Verzögerung T gleich Null, dann werden durch die Subtraktion der beiden Mikrofonsignale Störgeräusche aus der α=90-Grad-Richtung unterdrückt. Im Richtdiagramm weisen darauf die deutlich sichtbaren "Nullstellen" hin, die Bereiche größter Signaldämpfung bei ±90 Grad anzeigen (s. Abb. 5, links). In diesem Fall überträgt das Richtmikrofon Schall aus der 0- und 180-Grad-Richtung. Wird die Verzögerung T gleich der maximalen Laufzeit des Schalls zwischen den Mikrofonen gesetzt, dann wird durch die Subtraktion Schall aus der 0-Grad-Richtung entfernt (Abb. 5, rechts).

Indem wir die Richtung störender Geräusch-Quellen finden und dann Signale aus diesen Richtungen unterdrücken, können wir das Sprachsignal verbessern. Dieser Vorgang kann auch adaptiv-selbstlernend implementiert werden. Dann sucht das Gerät nach Schall, der von der Seite oder von hinten auftrifft und adaptiert das Richtdiagramm entsprechend. In jedem Fall erhält man durch die Kombination der Mikrofonsignale ein einziges Signal, in dem jedoch weiterhin Geräusche aus anderen Richtungen vorhanden sind. Dieses Signal wird nun einer weiteren Geräuschreduktion durch Zerlegung in Spektralkomponenten unterzogen.

Sprachsignale spiegeln gesprochene Laute auf unterschiedliche Art und Weise wider: Je nach Art des Sprachlauts sind Töne mit unterschiedlichen Frequenzen an dem Laut beteiligt, aber auch Variationen in der Lautstärke spielen eine wesentliche Rolle. Zum Beispiel weisen Vokale ausgeprägte harmonische (periodische) Tonkomponenten im Frequenzbereich bis 5 kHz auf, während viele Konsonanten in der Regel eher rauschartige hochfrequente Anteile besitzen. Zur Darstellung von Sprachsignalen bietet sich daher eine Zerlegung nach Tonhöhen als Funktion der Zeit an. Dieser Prozess wird Kurzzeitspektralanalyse genannt und kann zum Beispiel mit Hilfe von frequenzselektiven Filtern oder einer sog. diskreten Fouriertransformation realisiert werden. Werden die Kurzzeitspektren, d.h. die Tonkomponenten des Signals, fortlaufend in kurzen Signalsegmenten (ca. 10-30 ms) bestimmt, dann lassen sie sich grafisch als Spektrogramm darstellen. Das Spektrogramm gibt an, welche Tonkomponenten zu einem bestimmten Zeitpunkt in dem Signal enthalten sind.

Abb. 6 (links) zeigt das Spektrogramm eines kurzen gesprochenen Satzes, dem eine Pause vorangestellt ist. Aufgrund der hier gewählten relativ hohen Frequenzauflösung zeigt es sehr deutlich die harmonischen Strukturen der Vokale und die hochfrequenten, rauschartigen Anteile einiger Konsonanten. In handelsüblichen Hörgeräten wird bisher jedoch aus verschiedenen Gründen mit einer geringeren Frequenzauflösung gearbeitet, sodass nicht alle hier sichtbaren Details des Signals in der Verarbeitung zur Verfügung stehen. Abb. 6 (rechts) zeigt dasselbe Sprachsignal, allerdings jetzt durch zusätzliche Umgebungsgeräusche gestört; in diesem Fall handelt es sich um eine Störung durch mehrere gleichzeitig sprechende Personen und Rauschen im Hintergrund. Um die Geräusche weiter zu reduzieren, muss in einem ersten Schritt das Spektrum des noch im Signal enthaltenen Umgebungsgeräuschs ermittelt werden. Hierbei hat sich ein Verfahren bewährt, das die unterschiedliche zeitliche Variation von Sprachsignal und Geräusch ausnutzt. Während viele Geräusche sich nur relativ langsam verändern (z.B. Fahrgeräusche im Auto) ist die Leistung des Sprachsignals fortlaufend schnellen Variationen unterworfen. Das Verfahren zur Schätzung des Kurzzeitgeräuschspektrums nutzt den Umstand, dass jeder Sprecher Pausen macht und damit das Spektrum des Eingangssignals kurzzeitig nur die Umgebungsgeräusche enthält. Da auch zwischen gesprochenen Worten oder Silben kleinste für das Verfahren nutzbare Sprechpausen auftreten, sucht das Schätzverfahren nach den Minimalwerten des Signalspektrums in einem zeitlichen Bereich von etwa 1 bis 2 Sekunden. Mit diesem Trick lässt sich das Geräuschspektrum fortlaufend ermitteln, auch wenn gerade gesprochen wird (Abb. 7). Allerdings sind wegen der Reduktion auf das Minimum die erhaltenen Geräuschwerte im Mittel zu klein, um direkt als Schätzwert für das Umgebungsgeräusch zu dienen. Eine statistische Analyse zeigt jedoch, dass dieser Schätzfehler korrigiert werden kann, sodass der Mittelwert des Umgebungsgeräuschs aus den Minimalwerten rekonstruiert werden kann. Dieses Verfahren ist inzwischen mit einigen Variationen in vielen Hörgeräten und Mobiltelefonen im Einsatz.

Mit Hilfe des Geräuschspektrums kann nun auch das Sprachspektrum als Funktion der Frequenz und der Zeit geschätzt werden. Für jeden Punkt der im Spektrogramm aufgespannten Zeit-Frequenzebene wird anhand des geschätzten Geräusch- und Sprachspektrums eine Gewichtungsfunktion berechnet und damit die Frequenzkomponenten des Signals gewichtet. Da das Kurzzeitspektrum des Nutzsignals und des Geräuschs teilweise überlappen, führt diese Gewichtung auch zu einer Dämpfung der Sprachanteile. Es muss also ein Kompromiss gefunden werden, der eine signifikante Geräuschdämpfung zulässt und das Sprachsignal nur kaum hörbar verzerrt. Die Umrechnung von Geräusch- und Sprachspektrum in die Gewichtung erfolgt in erster Näherung nach einer von Norbert Wiener um 1940 berechneten Regel, dem sog. Wiener-Filter (s. Info 1). Nach der Anwendung der Wiener-Filter-Gewichtung auf das Kurzzeitsignalspektrum und einer dem Hörverlust angepassten Verstärkung mit Kompression wird dann das verbesserte Sprachsignal aus den Frequenzkomponenten des Spektrums synthetisiert und über den Lautsprecher wiedergegeben.


INFO 1

Für Insider: Das Wiener-Filter

Das Wiener-Filter wird verwendet, um Geräusche in gestörten Sprachsignalen zu reduzieren. Dazu erfolgt zunächst eine Spektralanalyse in kurzen Segmenten des gestörten Sprachsignals als Funktion der Zeit und der Frequenz (s. Abb. 6, S. 18). Das Wiener-Filter resultiert in einer Gewichtung des gestörten Spektrogramms mit der Gewichtungsfunktion

wobei PS(t,f) die Leistung des Sprachspektrums und PN(t,f) die Leistung des Geräuschspektrums repräsentieren. Alle diese Größen sind somit von der Zeit t und der Frequenz f abhängig. Für Punkte in der Zeit-Frequenzebene, in denen das Sprachleistungsspektrum PS(t,f) sehr viel größer als das Geräuschleistungsspektrum PN(t,f) ist, kann PN(t,f) im Nenner der Gleichung vernachlässigt werden, und die Gewichtungsfunktion G(t,f) nimmt den Wert Eins an. Das gestörte Spektrogramm bleibt für diese Punkte der Zeit-Frequenzebene nach einer Gewichtung mit G(t,f) unverändert und das Sprachsignal unverfälscht. Nimmt jedoch das Geräuschleistungsspektrum größere Werte als das Sprachleistungsspektrum an, so geht die Gewichtungsfunktion G(t,f) gegen Null, was zu einer Reduktion des Geräusches führt.


Der Bestimmung der Geräusch- und Sprachspektren kommt somit eine ganz zentrale Rolle zu. Bei den bisher etablierten Verfahren zur Schätzung des Sprachspektrums machen sich die statistischen Fluktuationen der Kurzzeitspektren stark bemerkbar, besonders dann, wenn wie bei den an der Ruhr-Universität entwickelten Geräuschreduktionsverfahren eine hohe Zeit- und Frequenzauflösung erreicht werden soll. Einzelne statistische Ausreißer in den Schätzwerten regen bei der Synthese des entrauschten Sprachsignals kurzzeitig einzelne Töne an - ein Phänomen das in Fachkreisen als "musical tones" oder "musical noise" bekannt und berüchtigt ist. Diese akustischen Artefakte heben sich deutlich von dem nach der Geräuschreduktion verbliebenen Restgeräusch ab und werden von Hörgerätenutzern als unnatürlich und störend empfunden. Mit einer weiteren Transformation und Komponentenanalyse des Kurzzeitspektrums zum Zweck einer noch effektiveren Unterscheidung und Trennung der Sprach- und Geräuschkomponenten werden in unseren Verfahren diese statistischen Ausreißer unterdrückt, ohne dabei die Sprachsignalkomponenten zu verzerren. Die so verbesserten Kurzzeitspektren von Abb. 6 sind in Abb. 8 als Spektrogramm dargestellt. Aus diesen Kurzzeitspektren wird dann das verbesserte akustische Signal erzeugt.

Mit den bisher beschriebenen Maßnahmen werden die Verständlichkeit und die auditive Qualität des verstärkten Signals bereits deutlich verbessert und doch ist die vollständige Wiederherstellung des Hörvermögens - vergleichbar dem gesunden Gehör - mit Hörgeräten der beschriebenen Bauart nicht möglich. Hörgerätenutzer sind immer wieder akustischen Situationen ausgesetzt, die eine Kommunikation fast unmöglich machen. Die Geräuschreduktion und die Verbesserung der Sprachverständlichkeit in schwierigen akustischen Situationen stehen daher auch weiterhin an vorderster Stelle bei der Hörgeräteentwicklung. Das Ziel unserer Forschungsarbeit sind daher Algorithmen für Hörgeräte, die die Sprachverständlichkeit auch in diesen Umgebungen verbessern (s. Info 2). Bis der technische Fortschritt solche Lösungen bereitstellt, ist mit Verständnis für die Auswirkungen des Hörverlusts in schwierigen Hörsituationen, der Reduktion von Geräuschen und Raumhall durch bauliche Maßnahmen und letztendlich auch Geduld bei der Kommunikation mit Hörgerätenutzern schon viel gewonnen.


INFO 2

Dem natürlichen Hören des Menschen technisch näher kommen

Geräuschreduktion und verbesserte Sprachverständlichkeit fordern auch weiterhin die Forschung und Hörgeräteentwicklung heraus. Dabei wird die funkgestützte Kommunikation zwischen linkem und rechtem Hörgerät eine wichtige Rolle spielen. Wenn das Audiosignal zwischen beiden Seiten ausgetauscht werden kann, können Signalverarbeitungsstrategien unter Verwendung der links- und rechtsseitig angebrachten Mikrofone implementiert werden. Ähnlich dem auditorischen System des Menschen ließen sich dann Raumhall und konkurrierende Sprecher besser als bisher ausblenden. Ebenso stellt die Berücksichtigung kognitiver Aspekte in den Signalverarbeitungsmethoden eine besondere Herausforderung dar. Diese und andere Themen werden derzeit intensiv in dem von der Europäischen Union geförderten und vom Lehrstuhl für Allgemeine Informationstechnik und Kommunikationsakustik koordinierten Marie Curie Graduiertenkolleg "AUDIS - Digital Signal Processing in Audiology" erforscht. Zudem ist die Verbesserung der Musikwiedergabe bei Hörgeräten ein spannendes Forschungsgebiet und Bestandteil eines Teilprojekts im Sonderforschungsbereich (SFB) 823, "Statistik nichtlinearer dynamischer Prozesse" (Sprecher: Prof. Dr. Walter Krämer, TU Dortmund). Dieses Teilprojekt wird in Kooperation mit Prof. Dr. Claus Weihs und seinen Mitarbeitern von der Fakultät für Statistik der TU Dortmund bearbeitet.

www.audis-itn.eu
www.statistik.tu-dortmund.de/sfb823.html


Prof. Dr.-Ing. Rainer Martin, Lehrstuhl für Allgemeine Informationstechnik und Kommunikationsakustik, Fakultät für Elektrotechnik und Informationstechnik;
Dr.-Ing. Timo Gerkmann, jetzt Sound and Image Processing Lab, School of Electrical Engineering, KTH Stockholm, Schweden


Den gesamten Artikel inkl. allen Bildern finden Sie im Internet im PDF-Format unter:
www.ruhr-uni-bochum.de/rubin/
oder direkt unter
www.ruhr-uni-bochum.de/rubin/rubin-fruehjahr-11/pdf/beitrag2.pdf


Bildunterschriften der im Schattenblick nicht veröffentlichten Abbildungen der Originalpublikation:

Seite 14 und 15
Abb. 1: ohne Bildunterschrift - zeigt ein kleines Mädchen, das versunken dem "Meeresrauschen" an einem großen Schneckengehäuse lauscht.

Seite 15
Abb. 2: Hörgerät (links) und Innenansicht (rechts) mit seinen wesentlichen Komponenten.

Seite 16
Abb. 3: Hörflächen des gesunden (links) und eines hörgeminderten (rechts) Ohres. Die Hörfläche ist durch die Hörschwelle in Ruhe und durch die Unbehaglichkeits- und die Schmerzschwelle begrenzt. Ein Hörverlust führt zu einer deutlich angehobenen Ruhehörschwelle bei gleichbleibender oder abgesenkter Schmerzschwelle.

Seite 17
Abb. 4: Prinzip des Richtmikrofons durch Subtraktion der Signale zweier Einzelmikrofone ( 1 und 2 ). Die Laufzeit des Schalls zwischen den Mikrofonen bewirkt in Verbindung mit der einstellbaren elektronischen Signalverzögerung T, dass seitlich oder von hinten einfallender Schall am Subtraktionspunkt unterdrückt werden kann.

Seite 17
Abb. 5: Richtdiagramme für das Richtmikrofon: Für die am Umfang aufgetragenen Einfallsrichtungen des Schalls kann die Dämpfung abgelesen werden. Die Nutzsignalquelle befindet sich in allen Fällen bei 0 Grad. Ist die elektronische Verzögerung Null, ergibt sich die sog. Achtcharakteristik (links). Wenn die elektronische Verzögerung der maximalen Laufzeit des Schalls zwischen den Mikrofonen entspricht, spiegelt sich das in einer "Nierencharakteristik" wider.

Seite 19
Abb. 6: Spektrogramm eines ungestörten (links) und eines gestörten (rechts) Sprachsignals. Die Spektrogramme sind das Ergebnis einer Kurzzeitspektralanalyse unter Verwendung der sog. diskreten Fouriertransformation. Die Fouriertransformation zerlegt das Signal in seine spektralen Komponenten, die entlang der vertikalen Frequenzachse aufgetragen sind. Die Farbe gibt die Intensität einer Spektralkomponente an. Zum Beispiel zeigen in dem Zeitintervall um Sekunde 2,1 die parallel verlaufenden Linien die harmonischen Komponenten der Stimmbandschwingungen eines Vokals an. In dem Zeitintervall um Sekunde 2,4 findet man das breitbandige, hochfrequente Rauschen eines Konsonanten.

Seite 20
Abb. 7: Die Berechnung des Geräuschspektrums verdeutlicht die Leistung des gestörten Sprachsignals bei einer festen Frequenz: Die automatische Geräuschleistungsschätzung findet den Verlauf des Hintergrundgeräuschs (rot dargestellt). Während der Sprachaktivität dominiert die Leistung des Sprachsignals die gesamte Signalleistung und nimmt daher relativ große Werte an. Während der Sprachaktivität ergibt sich in den zeitlichen Verläufen ein deutlicher Abstand zur Geräuschleistung.

Seite 21
Abb. 8: Spektrogramm des rauschreduzierten Sprachsignals: Im Vergleich mit den Spektrogrammen des unverrauschten und des verrauschten Signals in Abb. 6 (s. S. 18) konnte das Rauschen in weiten Bereichen stark reduziert werden. Eine vollständige Entfernung des Rauschens ist jedoch ohne eine starke Verzerrung der Sprachanteile nicht möglich.


*


Quelle:
RUBIN - Wissenschaftsmagazin, Frühjahr 2011, S. 14-21
Herausgeber: Rektor der Ruhr-Universität Bochum in Verbindung
mit der Gesellschaft der Freunde der Ruhr-Universität Bochum
Anschrift: Pressestelle der Ruhr-Universität Bochum, 44780 Bochum
Tel. 0234/32-22 133, -22 830, Fax 0234/32-14 136
E-Mail: rubin@presse.ruhr-uni-bochum.de
Internet: www.ruhr-uni-bochum.de/rubin/

RUBIN erscheint zweimal im Jahr
(sowie ein Themenheft pro Jahr).
Das Einzelheft kostet 2,50 Euro.
Jahreabonnement: 5,00 Euro (zzgl. Versandkosten)


veröffentlicht im Schattenblick zum 19. Juli 2011