Zur Kurzanzeige

Monkey see, monkey touch, monkey do: Influence of visual and tactile input on the fronto-parietal grasping network

dc.contributor.advisorScherberger, Hansjörg Prof. Dr.
dc.contributor.authorBuchwald, Daniela
dc.date.accessioned2020-06-12T12:57:11Z
dc.date.available2020-06-12T12:57:11Z
dc.date.issued2020-06-12
dc.identifier.urihttp://hdl.handle.net/21.11130/00-1735-0000-0005-13DC-E
dc.identifier.urihttp://dx.doi.org/10.53846/goediss-8037
dc.identifier.urihttp://dx.doi.org/10.53846/goediss-8037
dc.language.isoengde
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/
dc.subject.ddc570de
dc.titleMonkey see, monkey touch, monkey do: Influence of visual and tactile input on the fronto-parietal grasping networkde
dc.typedoctoralThesisde
dc.contributor.refereeScherberger, Hansjörg Prof. Dr.
dc.date.examination2020-03-13
dc.description.abstractgerEinige der häufigsten Bewegungen die wir täglich ausführen sind Greifbewegungen. Normalerweise greifen wir Objekte, nachdem wir sie gesehen haben. Doch auch andere Sinne, wie unser Tastsinn, können uns bei der Vorbereitung und Ausführung von Greifbewegungen behilflich sein. Tatsächlich ist ständiges Feedback im Umgang mit Objekten essentiell: Es hilft uns dabei, uns auf wechselnde Situationen einzustellen, zum Beispiel wenn ein Objekt aus unserer Hand zu rutschen droht. Obwohl generell angenommen wird, dass verschiedene Gehirnbereiche für verschiedene Aufgaben oder Sinne zuständig sind (wobei es keine komplette Trennung gibt, da die meisten Bereiche verschiedene Arten von Informationen verarbeiten) ist jede Bewegung ein Ergebnis des Zusammenspiels verschiedener Gehirnbereiche. Diese Zusammenarbeit zwischen Gehirnbereichen um Bewegungen entstehen zu lassen, wurde noch nicht umfassend erforscht, insbesondere nicht, wenn Objekte mit verschiedenen Sinnen wahrgenommen werden. In dieser Doktorarbeit habe ich untersucht, wie Informationen, die von unserem Tastsinn (so genannte taktile Informationen) stammen in verschiedenen Gehirnbereichen verarbeitet werden und wie diese Informationen anschließend genutzt wird, um Greifbewegungen zu planen und auszuführen. Desweiteren habe ich untersucht, ob die Art und Weise wie diese Bewegungen vom Gehirn geplant und ausgeführt werden sich verändert, wenn die Planung auf visuellen oder taktilen Informationen basiert. Hierfür wurden Mehrfachelektrodenarrays in den primären Motorkortex (M1), den primären somatosensorischen Kortex (S1), das anteriore intraparietale Areal AIP und den Handbereich des ventralen Premotorkortexes (Areal F5) eines Rhesusaffen (Macaca mulatta) implantiert. Der Affe wurde darauf trainiert, Objekte die er entweder gesehen oder berührt hat zu greifen. Das erlaubte es mir zu vergleichen, wie Informationen beider Bedingungen vom Gehirn verarbeitet werden. Bei einem Vergleich von Feuerraten wurden bereits Unterschiede in der Gehirnaktivität zwischen beiden Bedingungen sichtbar. Wenn man die Anzahl der signifikant modulierten Neurone vergleicht, ist es offensichtlich, dass Unterschiede in der Planung von Greifbewegungen basierend auf visuellen und taktilen Informationen vorliegen, die während der Ausführung der Bewegung nicht mehr vorhanden sind. Anschließend wurde ein Dekodierer auf den vorliegenden Daten trainiert, um vorhersagen zu können, welche Bewegungen auf der visuellen oder der taktilen Information basierten. Die Genauigkeit dieses Dekodierer ist während der frühen Memory-Period am höchsten. Trotzdem können auch zu einem späteren Zeitpunkt, kurz bevor die Greifbewegung beginnt, noch beide Bedingungen voneinander unterschieden werden. In einem zweiten Versuch wurde der Mittelfinger des Affen passiv stimuliert. Dies gab mir Einblicke wie taktile Information in den vier Gehirnbereichen verarbeitet wird. Zusammen ergeben die Ergebnisse einen Eindruck, wie taktile Informationen die fronto-parietalen Greifareale beeinflussen. AIP, ein Bereich, der dafür bekannt ist visuelle Objektinformationen zu verarbeiten, und F5, bekannt als Bereich für die Greifplanung, zeigen keine Reaktion zu taktilen Informationen, wenn keine Greifbewegung ausgeführt werden soll. Wichtiger noch, alle vier Bereiche zeigen signifikante Unterschiede in der neuronalen Aktivität während der Vorbereitung von Bewegungen, wenn visuell- und taktil-geleitete Bewegungen verglichen werden. Die Unterschiede sind stark genug, um die verschiedenen Bedingungen mit Hilfe eines Dekodierer unterscheiden zu können. Dies zeigt, dass die Art und Weise wie Objektinformation erworben wird berücksichtigt werden muss, wenn versucht wird, Aufnahmen der Gehirnaktivität in den fronto-parietalen Greifarealen zu machen, um damit beispielsweise eine Prothese oder einen Roboterarm zu steuern.de
dc.description.abstractengOne of the most common movements we do every day is grasping. Usually we do this with aid of our eyes, but other senses, like our sense of touch, can also assist in the preparation and execution of grasping movements. More so, constant feedback is essential when interacting with objects in order to react and adapt to changing situations, such as object slippage. While it is generally assumed that different brain areas are responsible for different types of input or tasks (although there is no perfect separation, most areas process different types of information) each movement is a team effort of many different areas. These interactions between brain areas in order to generate movements have not yet been extensively studied, especially not when the object information is delivered by different senses. In this thesis I investigated how tactile input is processed by different brain areas and how this information is used to plan and generate grasping movements. More so, I studied whether or not the planning and generation of grasping movements in the brain differs when based on visual compared to tactile information. For this purpose multi-electrode arrays were implanted into the primary motor cortex (M1), primary somatosensory cortex (S1), anterior intraparietal area (AIP) and the hand area of the ventral premotor cortex (area F5) of a rhesus macaque (Macaca mulatta). The animal was trained to grasp objects that he either saw or touched beforehand, allowing me to compare how information from both conditions is processed in the brain. By comparing firing rates, differences in the brain activity between both conditions were found. When looking at the number of significantly tuned neurons, it is obvious that there are differences in the way the brain plans grasping movements on the basis of vision versus touch, while the actual execution does not differ greatly. When trying to decode which trials were visually or tactually guided, accuracy is best in early memory but differentiation between both conditions is still possible shortly before grasping. In a second experiment, passive finger stimulation was applied to the middle finger of the animal, giving some insight in how tactile information is processed in the four brain areas. Together this demonstrates the influence of tactile input on the fronto-parietal grasping circuit. AIP, an area known to process visual object information and F5, known for grasp preparation, both show no reaction to tactile input in the absence of grasp intentions. More importantly, all four areas show significant differences in memory activity between visual and tactile grasps, enough to be able to decode both conditions from neuronal activity, showing that considerations how object information was acquired might be needed when trying to record from the fronto-parietal grasping network in order to control prosthetic robot arms.de
dc.contributor.coRefereeKagan, Igor Dr.
dc.subject.engGraspingde
dc.subject.engSomatosensory cortexde
dc.subject.engMotor cortexde
dc.subject.engParietal cortexde
dc.subject.engPremotor cortexde
dc.subject.engmacaque monkeyde
dc.subject.engmulti-electrode recordingde
dc.subject.engobject recognitionde
dc.identifier.urnurn:nbn:de:gbv:7-21.11130/00-1735-0000-0005-13DC-E-5
dc.affiliation.instituteGöttinger Graduiertenschule für Neurowissenschaften, Biophysik und molekulare Biowissenschaften (GGNB)de
dc.subject.gokfullBiologie (PPN619462639)de
dc.identifier.ppn1700545701


Dateien

Thumbnail

Das Dokument erscheint in:

Zur Kurzanzeige