„Psychische Taubheit“ und die Grenzen der Empathie
Gleichzeitig kann die ständige Konfrontation mit Online-Inhalten, die Leid thematisieren, zu Apathie und Untätigkeit führen, was nicht verwunderlich ist. Wenn Internetnutzer wiederholt mit Bildern von Massakern und Gewalt konfrontiert werden, kann ihr emotionales System überfordert sein. Dieses Phänomen beschrieb Paul Slovic, der beobachtete, dass die Empathie oft mit der Zahl der Opfer abnimmt. Er erklärt:
„Ein einzelnes Kind, das in einen Brunnen gefallen ist oder verhungert, rührt unser Herz und bewegt uns zum Handeln (und zum Spenden). Doch sobald die Zahl der Opfer auf zwei steigt, lässt das Mitgefühl – sowohl emotional als auch praktisch – nach.“
Der Grund dafür liegt in einem Bewältigungsmechanismus unseres Gehirns, der als „psychische Taubheit“ oder „Mitgefühlsmüdigkeit“ bezeichnet wird. Laut diesem Phänomen reagieren Menschen tendenziell stärker auf das Leid eines einzelnen, identifizierbaren Opfers, während ihre Reaktion mit zunehmender Opferzahl abnimmt. Selten rufen große Opferzahlen in Katastrophen die emotionale Beteiligung hervor, die zum Handeln motiviert, und führen paradoxerweise zu weniger Mitgefühl als einzelne Schicksale.
Es ist jedoch entscheidend zu betonen, dass eine Reaktion – oder deren Ausbleiben – nicht zwangsläufig Gleichgültigkeit oder moralische Verrohung bedeutet. Vielmehr kann sie als psychologischer Schutzmechanismus dienen, der Menschen hilft, mit der ständigen Konfrontation mit belastenden Inhalten umzugehen; andernfalls wären die psychischen Folgen gravierend. Würden Internetnutzer jedem einzelnen Fall von Leid, dem sie im Netz begegnen, die volle Intensität von Empathie entgegenbringen, würden sie bald unter Angstzuständen, Stress, Depressionen und allgemeiner emotionaler Erschöpfung leiden.
Wie Algorithmen verstörende Inhalte verstärken
Die Algorithmen digitaler Plattformen spielen eine entscheidende Rolle. Soziale Medien sind keine neutralen Räume, in denen Informationen einfach so erscheinen; diese Ökosysteme sind darauf ausgelegt, die Interaktion zu maximieren. Algorithmen priorisieren Inhalte, die starke Reaktionen wie Wut, Schock, Verzweiflung, Angst oder Furcht hervorrufen, einfach weil diese Emotionen die Nutzer tendenziell länger zum Scrollen animieren. Folglich stoßen Nutzer häufig auf verstörende Inhalte, nach denen sie möglicherweise gar nicht gesucht haben. Eine Umfrage des Youth Endowment Fund aus dem Jahr 2024 ergab, dass 70 % der Jugendlichen in sozialen Medien mit realer Gewalt konfrontiert wurden. 25 % von ihnen gaben an, dass ihnen diese Inhalte algorithmisch aufgedrängt wurden, anstatt dass sie sie gezielt gesucht hatten. Mit der Zeit wird die Konfrontation mit belastenden Inhalten zu einem alltäglichen Bestandteil und hinterlässt Spuren in der Entwicklung junger Menschen.