A microscopic model of speech recognition for listeners with normal and impaired hearing

Oldenburg, Univ., Diss., 2010

Gespeichert in:
Bibliographische Detailangaben
1. Verfasser: Jürgens, Tim (VerfasserIn)
Weitere Verfasser: Kollmeier, Birger (BerichterstatterIn), Hohmann, Volker (BerichterstatterIn)
Format: UnknownFormat
Sprache:eng
Veröffentlicht: 2010
Schlagworte:
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
Beschreibung
Zusammenfassung:Oldenburg, Univ., Diss., 2010
Diese Dissertation stellt ein mikroskopisches Modell der menschlichen Spracherkennung (HSR) vor; mikroskopisch bedeutet erstens, dass die Erkennung einzelner Phoneme (und nicht die Erkennung ganzer Sätze) modelliert wird. Zweitens wird die genaue spektro-temporale Struktur von Sprache mit einem auditorischen Modell verarbeitet. Gängige Modelle der HSR verwenden hingegen die spektrale Struktur allein. Das Modell ist dazu in der Lage die Phonemerkennung von Normalhörenden (NH) im Rauschen und wichtige Aspekte der Konsonanterkennung in Ruhe vorherzusagen. Weiterhin wird das Modell zur Vorhersage von Satzverständlichkeiten erweitert. Diese Erweiterung sagt die Spracherkennung von NH und SH mit der gleichen Genauigkeit vorher wie ein Standard-Sprachverständlichkeitsmodell. Die überschwellige Verarbeitung von NH und SH wird mit Hilfe psychoakustischer Messmethoden (Nachverdeckungsexperiment und kategoriale Lautheitsskalierung) erfasst. Diese überschwellige Verarbeitung wird dann im Modell berücksichtigt. Es zeigt sich, dass eine Berücksichtigung der überschwelligen Verarbeitung die Vorhersagegenauigkeit verbessert. <dt.>
This dissertation presents a microscopic model of human speech recognition (HSR), microscopic in a sense that first, the recognition of single phonemes rather than the recognition of whole sentences is modeled. Second, the particular spectro-temporal structure of speech is processed by an auditory model. This contrasts with other models of HSR, which usually use the spectral structure only. The model is capable of predicting phoneme recognition in normal-hearing (NH) listeners in noise along with important aspects of consonant recognition in quiet. Furthermore, this model is extended for the prediction of sentence recognition. The extension is capable of predicting speech recognition of NH and hearing-impaired (HI) listeners as accurately as a standard speech intelligibility model. Parameters reflecting the supra-threshold auditory processing are assessed in NH and HI listeners using psychoacoustical techniques such as forward masking and categorical loudness scaling. These supra-threshold auditory processing deficits are included in the model and the results show that implementing supra-threshold processing improves prediction accuracy. <engl.>
Beschreibung:181 S.
Ill., graph. Darst.