Der Kieler Sprachwissenschaftler Oliver Niebuhr entschlüsselt in Ahrensburg unseren Sprachcode

Ahrensburg. Es sind lehrreiche und oft auch originelle Vorträge, mit denen die Schleswig-Holsteinische Universitätsgesellschaft das Publikum mit Forschungen der Christian-Albrechts-Universität in Kiel vertraut macht. Nicht weniger als „Die Entschlüsselung des Sprachcodes“ verspricht Oliver Niebuhr vom Fachbereich Allgemeine Sprachwissenschaft, der heute, 2. Dezember, um 20 Uhr im Gemeindesaal der Schlosskirche Ahrensburg (Am Alten Markt) zu hören ist.

Hamburger Abendblatt:

Ihr Fachgebiet ist die Analyse gesprochener Sprache. Was können wir uns darunter vorstellen?

Oliver Niebuhr:

Das ist ein junges Fach, das aus der Phonetik, also der Lehre von der Bildung sprachlicher Laute, hervorgegangen ist, die uns meist in Wörterbüchern als das begegnet, was zwischen den eckigen Klammern als Aussprachehilfe zu lesen ist. Selbstverständlich ist Phonetik viel mehr, es geht dabei zum Beispiel auch um Sprachmelodie, um Betonung und andere mess- und darstellbare Signale. Unser Forschungsobjekt ist die gesprochene Sprache, die Forschung verbindet verschiedene Disziplinen wie Linguistik, Akustik, Anatomie und Neurowissenschaften. Nicht zu vergessen die Sprachtechnologie, die wichtiger wird, weil immer mehr maschinell unterstützt oder mit Maschinen gesprochen wird.

Der Untertitel Ihres Vortrags behauptet, dass wir weniger hören als wir denken und mehr denken als wir ahnen. Was ist uns bislang verborgen geblieben?

Niebuhr:

Die allgemeine Vorstellung von verbaler Kommunikation ist, dass Sprecher Buchstaben produzieren, die durch die Luft fliegen und von den Empfängern wieder zu Wörtern zusammengesetzt werden. So einfach ist es aber nicht. Mein Vortrag knüpft an diese gängige Vorstellung an und zeigt zunächst, dass kein Buchstabe dem anderen gleicht. Wir alle sind unterschiedliche biologische Organismen, verschieden in der Größe, in der stimmlichen Dynamik, in der Tonhöhe.

Könnte man sagen, dass jeder Mensch wie ein unterschiedlich gestimmtes Musikinstrument klingt?

Niebuhr:

Ja, wie verschiedene Musikinstrumente und Resonanzkörper, die zudem im Mund- und Nasenraum auch noch individuell verformt werden können. Es gibt also keine Konstanz der Laute und der Sprechweisen. Wir müssen beim Hören alle Arten von Unterschieden herausfiltern. Das hat weniger mit Hören als mit Denken zu tun. Wir lernen gewissermaßen, Variationen nicht zu hören, für Abweichungen taub zu sein, indem wir sie herausfiltern.

Eine Anstrengung, der wir uns nicht bewusst sind?

Niebuhr:

Genau. Das lässt sich auch anders gut veranschaulichen. Oft kommen durch Umweltgeräusche, verschluckte Silben oder Verschleifungen des Sprechers manche Buchstaben nicht beim Hörer an. Doch meist füllt der mühelos die Lücken, ohne groß darüber nachzudenken – und versteht trotzdem. Wir kennen das auch vom Lesen. Diese Fähigkeit macht es beispielsweise bei der Korrektur von Texten schwierig, auch nach mehrmaligem Lesen das Fehlen einzelner Buchstaben zu entdecken, weil wir sie quasi automatisch hinzudenken. Wir vollbringen dabei einige kognitive Kunststücke.

Das klingt, als wäre menschliche Sprache mehr als nur ein Mittel zum Zweck, sondern durch die Sprecher selbst lebendig.

Niebuhr:

Die Kommunikation zwischen Menschen ist eben nicht nur ein mechanisches Zusammensetzen von Zeichen wie bei der Kommunikation zwischen Maschinen. Bei Letzterer sind jede 0 und jede 1 exakt gleich, am Empfängerende steht die gleiche Sequenz wie am Ausgangspunkt. Aber so funktioniert menschliche Sprache nicht. Bei ihr sind jede 0 und 1 anders, und manche fehlen komplett. Dennoch ist es keine Schwierigkeit für uns, weil wir darauf getrimmt sind und unser Gehirn eine riesige Leistung vollbringt, um das zu decodieren. Ein weiterer Unterschied zwischen Mensch und Maschine ist, dass es in der digitalisierten Sprache nur Nullen und Einsen gibt, aber in der von Menschen gesprochenen nicht nur Wörter, sondern auch Melodien, Höhen und Pausen, was das Verstehen komplizierter macht. Tatsächlich entstehen durch Nuancen oft große Unterschiede, was sich in Sprichwörtern wie „Der Ton macht die Musik“ andeutet.

Wie analysieren Sie Sprache?

Niebuhr:

Vereinfacht gesagt kommen wir von den Geisteswissenschaften, arbeiten aber sehr experimentell naturwissenschaftlich, denn wir brauchen kontrollierte Stichproben. Dabei halten wir die Balance zwischen natürlicher Alltagssprache und zumeist sterilisierter Laborsprache. Wir sind eine noch junge Wissenschaft. Die Analyse begann mit Einzelwortaussprachen, es folgten Sätze, Monologe und Dialoge. Unsere Untersuchungen werden zunehmend komplexer und reichhaltiger. Ständig entdecken wir dabei Neues, was Bedeutung für die Kommunikation hat, zum Beispiel die Funktion von Sprachmelodie und lautlicher Variation.

Lernen Ihre Studenten, in Alltagssituationen anders hinzuhören?

Niebuhr:

Sie lernen, gezielt zu hören, zu erkennen und zu reproduzieren. Mit geschultem Gehör schicken wir sie heraus, damit sie mehr Beobachtungen machen. Gewöhnlich sind Menschen aus Gewohnheit für bestimmte Veränderungen in ihrer eigener Sprache taub. Wir müssen uns als Analytiker des gesprochen Wortes „enttauben“.

Sie selbst sind also immer im Einsatz, indem sie auch im Alltag auf die Signale hinter dem gesprochenen Wort lauschen?

Das kann man nicht abschalten, aber es macht Spaß. Und es ist lehrreich zu wissen, dass man leichter durch eine Sprechmelodie als durch die Wörter zu manipulieren ist.

Immer wieder ist die Rede davon, dass Männer und Frauen nicht die gleiche Sprache sprechen. Stimmt das?

Niebuhr:

Das ist ein Klischee, eine Vereinfachung, die gepflegt wird und sich gut verkauft. Auch Linguisten springen gerne auf so etwas auf. Seriös gibt es aber keine Hinweise darauf, dass Männer und Frauen unterschiedlich sprechen und denken und sich deshalb missverstehen. Wenn ja, dann ist es eine Art Rollenspiel, hat aber nichts mit Sprachwissenschaft zu tun.