dc.contributor.advisor | Schacht, Annekathrin Prof. Dr. | |
dc.contributor.author | Graß, Annika | |
dc.date.accessioned | 2017-02-23T09:13:43Z | |
dc.date.available | 2017-02-23T09:13:43Z | |
dc.date.issued | 2017-02-23 | |
dc.identifier.uri | http://hdl.handle.net/11858/00-1735-0000-002B-7D57-8 | |
dc.identifier.uri | http://dx.doi.org/10.53846/goediss-6005 | |
dc.description.abstract | In unserem alltäglichen Leben ist Sprache ein unerlässliches Mittel für Kommunikation und die Umsetzung sozialer Interaktionen. Sprache kann in zwei verschiedene Modalitäten unterteilt werden, in die auditorische und die visuelle Modalität. Die auditorische Modalität umfasst gesprochene Sprache, wohingegen die visuelle Modalität vom geschriebenen Teil der Sprache gebildet wird. Auch wenn ein Tag ohne Sprechen für die meisten von uns unvorstellbar ist, hat die bisherige Forschung die Untersuchung von Effekten bei der Verarbeitung von emotionalem Bedeutungsinhalt in gesprochener Sprache, im Gegensatz zu der Verarbeitung von geschriebener Sprache, vernachlässigt. Die Verarbeitung des emotionalen Bedeutungsinhalts von geschriebenen Wörtern hat eine Vielzahl von Studien mit Hilfe von ereigniskorrelierten Potentialen (EKPs) ausführlich untersucht. Im Gegensatz dazu wurde der emotionale Bedeutungsinhalt bei der Verarbeitung von gesprochener Sprache nur gelegentlich und meist entweder in seiner Interaktion mit emotionaler Prosodie oder fokussiert auf die Existenz einer spezifischen EKP Komponente untersucht. Daher bleibt die Frage offen, wie und an welchen Verarbeitungsschritten der emotionale Inhalt gesprochener Sprache ereigniskorrelierte Potentiale beeinflusst, unabhängig von emotionaler Prosodie und der Frage, ob Gemeinsamkeiten mit der Verarbeitung von geschriebenen emotionalen Wörtern bestehen.
In dieser Dissertation untersuche ich die Verarbeitung von gesprochenen Einzelwörtern mit positivem, neutralem und negativem Inhalt, mit der erkenntnisleitenden Fragestellung, ob der emotionale Inhalt von gesprochenen Wörtern Emotionseffekte in EKPs hervorruft und ob diese vergleichbar sind zu denen, die für geschriebene Wörter gezeigt wurden.
In der ersten dieser Dissertation zugrundeliegenden Studie wurden gesprochene Wörter mit emotionalem und neutralem Inhalt den Versuchspersonen in zwei verschiedenen Lautstärken präsentiert, um mögliche Interaktionen mit bottom-up Aufmerksamkeitseffekten, geleitet durch die Größe des Stimulus, zu erklären. Für visuelle Stimuli mit emotionalem Inhalt, wie Bilder oder geschriebene Wörter, hat die Größe des Stimulus erhöhte emotions-bedingte EKPs hervorgerufen, zum Beispiel auf der Ebene der early posterior negativity (EPN). Es wurde untersucht, ob diese erhöhte Relevanz von größeren visuellen Stimuli auf die auditorische Modalität übertragbar sein könnte. Negativer emotionaler Bedeutungsinhalt führt zu einer erhöhten frontalen Positivierung und einer parieto-okzipitalen Negativierung zwischen 370 und 530 Millisekunden. Diese Komponente zeigt Ähnlichkeit mit der visuellen EPN, obwohl sich die Negativierung zu zentraleren Arealen der Kopfoberfläche ausweitet. Daher stellt sich die Frage, ob diese Komponente das auditorische Pendant zu einer visuellen EPN darstellen könnte. Entscheidend ist hier, dass keine Interaktion dieser emotions-bedingten EKP Komponente mit dem Lautstärkefaktor beobachtet werden kann. Die folgenden Vergleichsaspekte deuten auf umfassendere Unterschiede zwischen visueller und auditorischer Sprachverarbeitung hin: die fehlende Interaktion zwischen der Größe des Stimulus und der Emotionseffekte, die Unterschiede in den Topographien der Emotionseffekte sowie unterschiedliche Latenzen verglichen zu der visuellen EPN.
Der zweite Teil dieser Dissertation ist auf einen direkteren Vergleich von Emotionseffekten in der visuellen und auditorischen Modalität ausgerichtet. Zu diesem Zweck wurde eine zweite Studie durchgeführt, in der Versuchspersonen dieselben Wörter in geschriebener und gesprochener Modalität präsentiert bekamen. Die gesprochenen Wörter wurden dabei sowohl von einer Computerstimme (Experiment 1) als auch von einer menschlichen Stimme (Experiment 2) produziert. Diese Studie wurde konzipiert, um die Existenz einer „auditorischen EPN“ und ihre Randbedingungen zu untersuchen. Darüber hinaus sollte die These überprüft werden, ob die höhere soziale Relevanz einer menschlichen Stimme die Emotionseffekte vergrößert. In beiden Experimenten zeigen sich Emotionseffekte. Für geschriebene Wörter zwischen 230 und 400 Millisekunden, im Zeitbereich der early posterior negativity, für gesprochene Wörter zwischen 460 und 510 Millisekunden. Wenn man die Verteilung der EKP Differenzen zwischen emotionalen und neutralen auditorischen Wörtern berücksichtigt, zeigen die Effekte interessanterweise sogar eine größere Ähnlichkeit mit der visuellen EPN als die Ergebnisse des ersten Teils dieser Dissertation. Eine Quellenlokalisierung ergab vergleichbare neuronale Generatoren im superioren parietalen Lobus (SPL) und im inferioren temporalen Lobus (IPL), sowohl im visuellen als auch im „auditorischen EPN“ Zeitfenster. Diese Befunde deuten auf Gemeinsamkeiten in der Verarbeitung emotionaler Inhalte über die Modalitäten hinweg hin, die – zumindest teilweise – durch das gleiche neuronale System gestützt werden. Trotzdem erscheinen diese Gemeinsamkeiten überraschend, da für die visuelle EPN angenommen wird, dass sie eine verstärkte sensorische Enkodierung für emotionale Stimuli in visuellen Arealen abbildet. Die oben beschriebenen und in diesen Studien gezeigten Emotionseffekte unterscheiden sich bezüglich ihrer Latenzen, Topographien und der Valenz, welche den Effekt hervorruft (positiv oder negativ).
Im letzten Teil der Dissertation wurden daher systematisch Unterschiede zwischen den Studien untersucht um potenzielle Ursachen für die oben aufgeführten Unterschiede in den Emotionseffekten bestimmen zu können. Es zeigen sich Geschlechterunterschiede in den Topographien in Studie 2, die jedoch nicht die gefundenen Unterscheide in den Emotionseffekten zwischen den beiden Studien erklären können. Es wird angenommen, dass beide Studien die gleiche auditorische emotions-bedingte Komponente (AEK) in einem vergleichbaren Zeitfenster (Studie 1: 477 530 ms; Studie 2: 464 515 ms) hervorrufen, welcher in der ersten Studie eine N400-ähnlichen Verteilung vorausgegangen ist. Obwohl keine Interaktionen zwischen emotionalem Inhalt und Lautstärke aufgezeigt werden können, gehe ich davon aus, dass die Manipulation der Lautstärke in der ersten Studie den Kontext des Experiments verändert, und so den früheren Effekt ausgelöst hat.
Auch wenn keine verifizierbaren Ursachen für die beschriebenen Unterschiede zwischen den Emotionseffekten aufgezeigt werden konnten, ist es mir mit dieser Dissertation gelungen, die Existenz einer auditorischen emotions-bedingten Komponente zu zeigen, die durch emotionalen (in Vergleich zu neutralem) Inhalt während der Verarbeitung von gesprochener Sprache hervorgerufen wird. Diese Komponente spiegelt sich in einer anterioren Positivierung und einer posterioren Negativierung zwischen 460 und 520 Millisekunden nach Wortbeginn wider. Diese zeigt sich gleichbleibend, unabhängig von der sozialen Signifikanz der Stimme des Sprechers oder der Manipulation der Lautstärke. Bezüglich eines Vergleich des zugrundeliegenden neuronalen Netzwerkes während der Verarbeitung des Inhalts von gesprochenen und geschriebenen Wörtern, kann man annehmen, dass die Verarbeitung Hirnareale aktiviert, die zumindest teilweise im SPL und IPL liegen. Obwohl die Verteilung der AEK eine hohe Ähnlichkeit zur visuellen EPN aufzeigt, kann man nicht annehmen, dass dieser Effekt ein auditorisches Pendant darstellt. Diese Schlussfolgerung beruht darauf, dass sich eine typische EPN-Verteilung nur bei der Berechnung der Differenzkurven von emotionalen und neutralen Stimuli zeigt. Die daraus resultierende posteriore Negativierung spiegelt eine erhöhte Aktivierung von visuellen Arealen - hervorgerufen durch emotionale Stimuli - wider. Die Analyse der zugrundeliegenden neuronalen Generatoren für den Unterschied zwischen auditorischen emotionalen und neutralen Stimuli liefert keine signifikanten Ergebnisse. Trotzdem zeigen die zugrundeliegenden Topographien der einzelnen Emotionskategorien, dass die Gemeinsamkeit auf der Ebene der Differenzkurven aus völlig unterschiedlichen Verteilungen resultiert.
Zukünftige Forschung müsste das auditorische Stimulusmaterial bezüglich der Wortlänge oder des Worterkennungspunktes strikter kontrollieren, um den zeitlichen Jitter in den Daten zu reduzieren und somit die neuronalen Generatoren einer auditorischen emotions-bedingten Komponente besser bestimmen zu können. | de |
dc.language.iso | eng | de |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/4.0/ | |
dc.subject.ddc | 150 | de |
dc.title | The Influence of Emotional Content on Event-Related Brain Potentials during Spoken Word Processing | de |
dc.type | doctoralThesis | de |
dc.contributor.referee | Schacht, Annekathrin Prof. Dr. | |
dc.date.examination | 2016-10-18 | |
dc.description.abstracteng | In our everyday lives, language is an indispensable tool for communication and for the establishment and preservation of social interactions. Language can be divided in two different modalities, namely the auditory and visual modality. The auditory modality comprises spoken language, whereas the visual modality is composed of the written part of language. Even though a day without speaking is probably inconceivable for most of us, previous research has neglected the investigation of effects of emotional meaning on spoken word processing, as opposed to processing of written words. For written word processing, several studies elaborately investigated effects of emotional meaning on event-related brain potentials (ERPs). In contrast to this, emotional content in spoken word processing was investigated only very occasionally and mostly either in its interaction with emotional prosody or focused merely on the existence of a specific component. Therefore, it remains an open question how and at which stages emotional content of spoken words affects event-related brain potentials regardless of emotional prosody and whether it shows similarities to the processing of written emotional words.
In this thesis, I investigate the processing of single spoken words with positive, neutral and negative content, with the objective of understanding whether emotional content of spoken words leads to emotion effects in ERPs and if those are comparable to those shown for written words.
In the first study of this dissertation, spoken words of emotional and neutral content were presented to participants at two different volume levels to elucidate possible interactions of emotion effects with bottom-up attention effects driven by stimulus size. For visual stimuli of emotional content as pictures and written words, stimulus size has been shown to increase emotion-related ERP effects, for example at level of the early posterior negativity (EPN). It was investigated whether this augmented relevance of larger visual stimuli might be transferred to the auditory modality. Negative emotional content leads to an increased frontal positivity and parieto-occipital negativity between 370 and 530 ms. This component reveals resemblance to the visual EPN, however, the negativity expands further towards central scalp areas. Therefore, the question arises whether this component might reflect an auditory counterpart of the visual EPN. Importantly, no interaction of this emotion-related ERP component with volume level is revealed. The following aspects, if comparing them to the visual modality, point towards a broader difference between visual and auditory language processing: The missing interaction of stimulus size and emotion effects, differences in topographies of the emotion effects and the different latencies compared to the visual EPN.
The second part of this thesis aims at a more direct comparison of emotion effects in the visual and auditory modality. For this purpose, a second study was conducted, in which the same words were presented visually and auditorily to the participants. Spoken words were either produced by a computer-voice (Experiment 1) or a human speaker (Experiment 2). This study was designed in order to investigate the existence of an “auditory EPN” and its boundary conditions. In addition, it was investigated whether the higher social relevance of a human voice augments the emotion effects. In both experiments, emotion effects are evident. For written words, effects are evident between 230 and 400 ms, in the early posterior negativity (EPN), for spoken words between 460 and 510 ms. Interestingly, when considering the scalp distribution of the ERP differences between emotional and neutral auditory words, the effect shows even higher similarity to the visual EPN than in the first part of this thesis. Source localization revealed comparable neural generators in the superior parietal lobule (SPL) and inferior parietal lobule (IPL) in both the visual and auditory EPN time window. The findings indicate similarities in the processing of emotional content across modalities that – at least partly – rely on the same neural system. However, these similarities are surprising since the visual EPN is assumed to reflect enhanced sensory encoding in visual areas. The emotion effects revealed in the studies described above differed in terms of latencies, topographies and the valence that elicits the effect (positive or negative).
Therefore, in the last part of this thesis, I investigate potential causes for these differences. Sex differences at scalp topography level are revealed, however, they can not explain the reported differences between the studies. It is hypothesized that both studies reveal the same auditory emotion-related component (AEC) in a comparable time frame (Study 1: 477 530; Study 2: 464 515 ms), which was preceded by an earlier emotion effect (371-477 ms) with a N400-like scalp distribution in Study 1. Even though no interactions of emotional content and volume level are revealed, presumably volume level manipulation in the first study changed the context of the experiment, which caused the additional effect.
Even though no verifiable cause for the described differences in emotion effects could be revealed, I was able to show the existence of an auditory emotion-related component that is elicited by emotional (compared to neutral) content during spoken word processing. This component is reflected in an anterior positivity and posterior negativity around 460 to 520 ms after word onset. It is invariantly occurring, unaffected by the social significance of the speaker’s voice or by a volume level manipulation. Concerning a comparison of the underlying neural network during the processing of content in spoken and written words, it can be concluded that the processing activates brain areas which are at least partly shared in the SPL and IPL. Even though the scalp distribution of the AEC reveals high similarity to the visual EPN, it is not assumed that this effect reflects an auditory counterpart. This conclusion is drawn first on the fact that the typical EPN-distribution is only revealed when calculating the difference waves of emotional and neutral stimuli. The resulting posterior negativity reflects enhanced activation in visual areas to emotional stimuli. The analysis of the underlying neural generators for the difference between auditory emotional and neutral stimuli do not show significant results. However, underlying topographies of the separated emotion categories reveal that the similarity at the level of difference waves resulted from entirely different scalp distributions.
Future research has to control stimulus material more strictly in terms of word length or recognition point in order to reduce the temporal jitter in the data and determine the neural generators of the auditory emotion-related component. | de |
dc.contributor.coReferee | Kagan, Igor Dr. | |
dc.subject.eng | Event-related Potentials | de |
dc.subject.eng | Early Posterior Negativity | de |
dc.subject.eng | Volume level | de |
dc.subject.eng | Written Language | de |
dc.subject.eng | Spoken Language | de |
dc.subject.eng | Spoken Word Processing | de |
dc.subject.eng | Emotional Content | de |
dc.subject.eng | Emotional Words | de |
dc.identifier.urn | urn:nbn:de:gbv:7-11858/00-1735-0000-002B-7D57-8-8 | |
dc.affiliation.institute | Biologische Fakultät für Biologie und Psychologie | de |
dc.subject.gokfull | Psychologie (PPN619868627) | de |
dc.identifier.ppn | 880849444 | |