Wir suchen immer neue Beiträge für unseren Blog – einen Call mit allen relevanten Informationen findet ihr hier!
Damit Datenschutz zum Gespräch wird
Das Privacy-Taboo Kartenspiel als Werkzeug für gemeinsame Aushandlung
von Jenny Berkholz, Sima Amirkhani und Gunnar Stevens
Digitale Privatheit ist selten ein einfaches Thema. Noch seltener wird in Familien oder engen Gemeinschaften offen darüber gesprochen. Wer hat Zugriff auf meine Fotos? Wer darf wissen, wo ich mich gerade befinde? Und wann ist es eigentlich normal, dass digitale Geräte im Wohnraum Daten sammeln?
Im Teilprojekt der Universität Siegen im Forschungsverbund BeDeNUTZ – Zur Stärkung der informationellen Selbstbestimmung der Nutzenden im digitalen Verbraucherschutz befassen wir uns mit eben diesen Fragen, insbesondere damit, wie Verbraucher:innen digitale Technologien in ihrem Alltag erleben und welche Vorstellungen von Privatheit, Kontrolle und Vertrauen ihre Nutzung prägen. Die Ergebnisse fließen sowohl in die Forschung als auch in Ansätze der Verbraucherberatung ein. Ziel ist es, die informationelle Selbstbestimmung zu fördern und Menschen zu befähigen, souverän mit ihren Daten umzugehen.
Privatheit als soziale Aushandlung
In unseren Interviews zeigt sich immer wieder, dass Privatheit im Alltag relational entsteht (McDonald & Forte 2020, Akter et al. 2022): Vorstellungen darüber, welche Informationen geteilt werden dürfen und wo Grenzen liegen, entwickeln sich in sozialen Beziehungen – zwischen Familienmitgliedern, Mitbewohner:innen, Freund:innen oder Institutionen – und werden dort kontinuierlich ausgehandelt, auch wenn dies implizit und gelegentlich auch konfliktgeladen geschieht. Hierfür haben wir uns überlegt, dass man einen Raum schaffen könnte, in dem Menschen ihre eigenen Vorstellungen von Privatheit spielerisch erkunden können – ohne gleich davon überfordert zu werden.
Das Privacy Taboo Kartenspiel: Spielerisch über Datenschutz sprechen
Um solche Gespräche zu ermöglichen, haben wir im Projekt das Kartenspiel Privacy Taboo entwickelt (Berkholz et al. 2025). Im Spiel werden drei Kartentypen miteinander kombiniert: Stakeholder, Daten und Zweck. Spieler:innen ziehen jeweils eine Karte aus jeder Kategorie und erzeugen so eine konkrete Datennutzungssituation. Anschließend diskutieren sie gemeinsam, ob und unter welchen Bedingungen sie diese Nutzung akzeptabel finden. Im Verlauf des Spiels werden einzelne Karten nach und nach ausgetauscht, während die übrigen gleich bleiben. So entstehen leicht veränderte Situationen, anhand derer sichtbar wird, wo implizite Zustimmungsgrenzen verlaufen. Eine Person kann beispielsweise zustimmen, ihre Kontodaten mit einer Bank zu teilen, dieselben Daten jedoch nicht einer Krankenversicherung oder einem Online-Händler zur Verfügung stellen wollen. Durch diese schrittweisen Variationen wird deutlich, wie stark Bewertungen davon abhängen, wer Daten nutzt, welche Daten betroffen sind und zu welchem Zweck sie verwendet werden.

Abbildung 1: Nachgestellte Szene während des Kartenspiels (mit ChatGPT entfremdet dargestellt.)
Dabei zeigt sich immer wieder, dass Entscheidungen über Datenschutz im Alltag selten rein rational getroffen werden. Häufig spielen intuitive Einschätzungen darüber, was sich richtig oder falsch anfühlt, eine wichtige Rolle. Sobald das Kartenset auf dem Tisch liegt, wird das abstrakte Thema Datenschutz für viele Teilnehmende greifbarer. Sie ziehen Stakeholder-, Daten- und Zweckkarten, legen sie nebeneinander und beginnen miteinander zu diskutieren (siehe Abbildung 1).
Sobald Kombinationen wie „Eine lokale Wohltätigkeitsorganisation möchte Zugriff auf deine Fotos, um sie zu verkaufen“ oder „Eine Versicherung möchte deine Geodaten nutzen, um dir 5 % Rabatt zu geben“ auf dem Tisch liegen, lösen sie häufig spontane Reaktionen aus. Teilnehmende kommentieren die Szenarien, vergleichen sie mit eigenen Erfahrungen und diskutieren ihre Einschätzungen. Dabei entstehen Gespräche über Vertrauen, wahrgenommene Grenzverschiebungen und intuitive Bewertungen von Datennutzung im digitalen Alltag. Solche Szenarien regen zur Reflexion an: Ist diese Nutzung akzeptabel? Wem vertraue ich meine Daten an? Welche Risiken erkenne ich und für wen entstehen sie?
Sobald Kombinationen wie „Eine lokale Wohltätigkeitsorganisation möchte Zugriff auf deine Fotos, um sie zu verkaufen“ oder „Eine Versicherung möchte deine Geodaten nutzen, um dir 5 % Rabatt zu geben“ auf dem Tisch liegen, lösen sie häufig spontane Reaktionen aus. Teilnehmende kommentieren die Szenarien, vergleichen sie mit eigenen Erfahrungen und diskutieren ihre Einschätzungen. Dabei entstehen Gespräche über Vertrauen, wahrgenommene Grenzverschiebungen und intuitive Bewertungen von Datennutzung im digitalen Alltag. Solche Szenarien regen zur Reflexion an: Ist diese Nutzung akzeptabel? Wem vertraue ich meine Daten an? Welche Risiken erkenne ich und für wen entstehen sie?
Einige Teilnehmende sagten nach den Sessions, dass sie mehr über ihre eigenen Präferenzen und die ihrer Mitspieler:innnen herausgefunden haben. Das Spiel bot somit einen niederschwelligen Anlass, miteinander ins Gespräch zu kommen: nicht abstrakt, sondern konkret, greifbar und mit einer Prise Humor, die selbst heikle Themen leichter zugänglich machte.
Gerade durch seine Offenheit lässt sich das Spiel flexibel einsetzen – in Forschung, Bildung oder Beratung. Dabei geht es weniger um „richtig“ oder „falsch“, sondern darum, Privatheit als kollektiven Aushandlungsprozess sichtbar zu machen. Das Spiel wird so zu einem Reflexionsraum, in dem ungleiche Perspektiven und Machtverhältnisse deutlich werden, zum Beispiel zwischen Eltern und Kindern, zwischen technikaffinen und zurückhaltenden Personen oder zwischen Behörden und Nutzer:innen.

Abbildung 2: Beispiel für eine gezogene Karten-Kombination: Eine lokale Wohltätigkeits-Organisation möchte Zugriff auf dein Mikrofon um die Daten zu verkaufen.
Privatheit im Familienkontext: Ein Tabuthema mit Potenzial
Besonders spannend ist der Einsatz des Privacy Kartenspiels im Familienkontext. Gerade in Partnerschaften spielt informationelle Selbstbestimmung eine besondere Rolle, weil digitale Geräte und Dienste dort oft gemeinsam genutzt oder zumindest eng miteinander verflochten sind. Wer kennt wessen PIN? Darf das Smartphone des anderen für eine schnelle Google-Suche genutzt werden? Wie transparent soll der Standort miteinander geteilt sein? Wann kippt Vertrauen in Kontrolle?
Solche Fragen werden in Familien selten offen besprochen. Gleichzeitig beeinflusst der alltägliche Einsatz digitaler Geräte Vertrauen, Autonomie und das Zusammenleben. Sprachassistenten im Wohnraum oder automatisch synchronisierte Fotos in Cloud-Diensten verändern, wer Zugriff auf persönliche Informationen hat. Dadurch entstehen Situationen, in denen persönliche Informationen sichtbar oder nutzbar werden, ohne dass dies zuvor bewusst ausgehandelt wurde.
Privatheit wird in Partnerschaften häufig erst dann zum Thema, wenn es bereits zu spät ist, nämlich dann, wenn digitale Überwachung, Tracking oder andere Formen digitaler Gewalt durch den (Ex-)Partner eskalieren. Der gesunde Umgang mit Privatheit beginnt viel früher: im bewussten Umgang mit privaten Schutzräumen und im Respekt gemeinsamer Regeln. Diese Kompetenzen sind kein Selbstläufer, sondern müssen, wie andere soziale Alltagsroutinen, gelernt, reflektiert und ausgehandelt werden. Das Kartenspiel eröffnet einen spielerischen Rahmen, um diese oft unausgesprochenen Aushandlungen sichtbar zu machen und Paare dabei zu unterstützen, gemeinsame Vorstellungen von digitaler Privatheit zu entwickeln, ohne dass es gleich konfliktgeladen werden muss.
In unserem Paper „Privacy Silence: Trust and Boundary-Setting in Mobile Phone Use Within Intimate Relationships“ (Amirkhani et al. 2025) zeigen wir, wie Privatheit insbesondere in partnerschaftlichen Beziehungen als Tabuthema gilt, und bezeichnen dies als „Privacy Silence“. Hier könnte das Kartenspiel helfen diese Themen zu öffnen. Das gemeinsame Spielen senkt Hemmschwellen, macht Unsichtbares sichtbar und ermöglicht Gespräche, die sonst kaum stattfinden würden. So wird das Kartenspiel zu einem Werkzeug, um digitale Privatheit in Beziehungen verhandelbar zu machen – insbesondere dort, wo Schweigen, Scham oder Unsicherheit dominieren.
Vulnerabilität und Diversität mitdenken
Das im Forschungsprojekt entwickelte Konzept des spielerischen Datenschutzes lässt sich leicht an besonders sensible Themen anpassen. Es hilft dabei, über Ungleichheiten in der informationellen Selbstbestimmung zu sprechen, denn Privatheit ist nicht für alle gleich ist: Wer weniger über digitale Technologien weiß, hat meist auch weniger Kontrolle über die eigenen Daten.
Privacy Taboo trägt dazu bei, solche Vulnerabilitäten sichtbar zu machen: Teilnehmende erkennen, dass „Privatsphäre“ für verschiedene Menschen Unterschiedliches bedeutet – je nach Alter, Einkommen, Herkunft oder Technikzugang. Im Sinne einer diversitätsgerechten Gestaltung digitaler Privatheit (wie sie auch das Projekt DiversPrivat anstrebt) eröffnet die Methode also eine niedrigschwellige Möglichkeit, marginalisierte Stimmen einzubeziehen – nicht nur als Forschungsobjekte, sondern als aktive Mitgestaltende.
Über Privatheit reden lernen
Privatheit ist kein rein technisches oder juristisches Problem – sie ist auch eine Frage der sozialen Gerechtigkeit und der Kommunikation. Das Privacy Taboo zeigt, dass man über Datenschutz sprechen kann, ohne zu belehren. Es schafft Momente des Nachdenkens, der Empathie und des Perspektivwechsels – gerade in Umgebungen, wo Schweigen sonst die Regel ist.
Wenn wir über digitalen Privatheitsschutz sprechen, sollten wir nicht nur neue Tools oder Gesetze fordern, sondern auch neue Formen des Gesprächs entwickeln. Das Kartenspiel ist ein kleiner Beitrag dazu – und eine Einladung, gemeinsam herauszufinden, wie wir digitale Privatheit für alle gestalten können.
Ein Werkzeug für Forschung und Vermittlung
Aufgrund der guten Erfahrung im Forschungsprojekt sehen wir das Kartenspiel als ein vielseitig einsetzbares Werkzeug, das in ganz unterschiedlichen Kontexten genutzt werden kann:
- in Forschungsprojekten, um Einstellungen zu digitaler Privatheit zu explorieren;
- in der Bildungsarbeit, um Jugendliche oder Senior:innen für Datenschutzthemen zu sensibilisieren;
- in Beratung und Partizipation, um Betroffene aktiv einzubeziehen.
Literatur:
Akter, M., Godfrey, A. J., Kropczynski, J., Lipford, H. R., & Wisniewski, P. J. (2022). From parental control to joint family oversight: Can parents and teens manage mobile online safety and privacy as equals?. Proceedings of the ACM on Human-Computer Interaction, 6(CSCW1), 1-28.
Amirkhani, S., Gerami, F., Alizadeh, M., Randall, D., & Stevens, G. (2025, April). Privacy Silence: Trust and Boundary-Setting in Mobile Phone Use Within Intimate Relationships. In Proceedings of the Extended Abstracts of the CHI Conference on Human Factors in Computing Systems (pp. 1-7).
Berkholz, J., Rahman, A., & Stevens, G. (2025). Playing with Privacy: Exploring the Social Construction of Privacy Norms Through a Card Game. Proceedings of the ACM on Human-Computer Interaction, 9(1), 1-23.
McDonald, N., & Forte, A. (2020, April). The politics of privacy theories: Moving from norms to vulnerabilities. In Proceedings of the 2020 CHI conference on human factors in computing systems (pp. 1-14).
Über die Autoren
Dr. Jenny Berkholz ist wissenschaftliche Mitarbeiterin am Lehrstuhl für Wirtschaftsinformatik, insbesondere IT-Sicherheit und Datenschutz, an der Universität Siegen. In ihrer Forschung untersucht sie, wie sich Konsumpraktiken im digitalen Raum verändern und wie Technologien soziale Normen, insbesondere im Bereich Privatheit, mitprägen. Im Projekt BeDeNUTZ beschäftigt sie sich zudem mit verbraucherfreundlichen digitalen Konsumumgebungen und neuen Formaten der Verbraucherberatung. 2025 promovierte sie mit der Arbeit „Consumer Practices in Transition: Negotiating Social Norms and the Democratization of Digital Consumption“.

Sima Amirkhani ist wissenschaftliche Mitarbeiterin am Institut für Verbraucherinformatik der Hochschule Bonn-Rhein-Sieg und promoviert am Lehrstuhl für Wirtschaftsinformatik, insbesondere IT-Sicherheit und Datenschutz, der Universität Siegen zu den Themen digitale Privatheit im sozialen Nahumfeld und Romance Scam. Ein besonderer Schwerpunkt ihrer Arbeit liegt auf den kulturellen und sozialen Kontexten digitaler Betrugsformen und darauf, wie diese die Verwundbarkeit von Nutzer:innen beeinflussen.

Prof. Dr. Gunnar Stevens ist Professor für Wirtschaftsinformatik mit Schwerpunkt IT-Sicherheit und Verbraucherinformatik an der Universität Siegen. Am Lehrstuhl erforscht er nutzerzentrierte IT-Sicherheit und Datenschutz mit dem Ziel, die digitale Souveränität von Bürger:innen zu stärken. Seine Forschungsschwerpunkte liegen in den Bereichen Verbraucherinformatik sowie Usable Privacy und Security. In zahlreichen national geförderten Projekten, darunter AntiScam, BeDeNUTZ, SAM-Smart und CheckMyVA, untersucht er, wie Sicherheitsrisiken verständlich vermittelt, transparente Systemarchitekturen gestaltet und Privacy-by-Design-Prinzipien in digitale Technologien integriert werden können. Seit 2024 ist er Mitglied im wissenschaftlichen Beirat des Bundesamts für Sicherheit in der Informationstechnik (BSI) zum Thema digitaler Datenschutz.



