Das Aufkommen kommerzieller Sprachassistenten hat die Forschung in Bezug auf Erkennung, Verständnis und Einsatzgebiete auf ein neues Niveau gehoben.Hauptgründe dafür sind die gegebene Natürlichkeit des Sprechens als Kommunikationsform. In diesem Sinne unterscheidet sich die Nutzung eines sprachgesteuerten Mobiltelefons nicht wesentlich von der Sprachsteuerung einer Smart Home-Anwendung.Sprachassistenten der Zukunft sollen jedoch nicht nur die Bedienung eines technischen Systems vereinfachen, sondern eine vollkommen freie natürliche Interaktion ermöglichen. Dazu gehört, dass die gesamte Bandbreite menschlicher Ausdrucksweisen verstanden wird.Aktuelle Sprachassistenten sind sehr gut im Erkennen und Verstehen von Sprachinhalten im Sinne einer Sachinformation, haben aber Defizite im Verstehen weiterer Aspekte der Sprachebenen. Die Sachinformation ist meist nicht die wichtigste, und Defizite im Verstehen weiterer Aspekte der Sprache (z.B. Prosodie, Affekt, Charisma) führt zu vielen Fehlinterpretationen.In den letzten Jahrzehnten hat die Forschung aktiv Techniken entwickelt, die es erlauben, affektive Informationen des Sprechers zu erkennen und in den Entscheidungsprozess von technischen Assistenten einzubeziehen.Da diese Untersuchungen meist datengetrieben sind und auf KI-Modellierung basieren, werden die Auswirkungen unterschiedlicher akustischer Umgebungen oder Übertragungskanäle leider oft vernachlässigt. Der Beitrag zeigt daher den Einfluss unterschiedlicher Kanalcodierung und unterschiedlicher Raumakustik auf die Merkmalsrepräsentation und Erkennungsleistung von affektiven Zuständen oder charismatischen Informationen auf.