Ein Service der

Artikel als PDF herunterladen

Dieser Beitrag ist Teil von Verbessert digitales Nudging die Sicherheit in der Informationstechnik?

Richard Thaler, Nobelpreisträger für seine Verdienste um die Verhaltensökonomik, signiert jedes seiner Bücher mit „Nudge for Good“. Er hat seine guten Gründe: „Nudging“, sprich der Einsatz von Instrumenten verhaltensbasierter Regulierung, wird zum einen häufig missverstanden1 und manchmal auch bewusst falsch dargestellt. Framing wirkt. In alle Richtungen. Zum anderen wird das Wissen über Nudging und Verhaltenspolitik für Ziele eingesetzt, die nichts mit der Intention und Definition der beiden Namensgeber,2 Richard Thaler und Cass Sunstein, zu tun haben, sondern kommerziell, politisch motiviert oder schlichtweg nicht legitim sind. Besonders das „digitale Nudging“, also das Design digitaler Nutzerschnittstellen mit dem Ziel, das (Entscheidungs-)Verhalten der Nutzer in digitalen Umgebungen zu beeinflussen,3 steht zurecht unter kritischer Beobachtung. Vor allem von den Medien wird digitales Nudging gerne mit der berechtigten Debatte über die riskanten Auswirkungen von zunehmend effektiven Personalisierungs- und Targetingoptionen für Gesellschaft und Demokratie vermischt. Tatsächlich ermöglichen die immensen personenbezogenen Datenmengen und immer intelligenter werdende Algorithmen, über die mächtige Digitaloligopolisten verfügen, ganz neue Möglichkeiten für die Manipulation von Meinungen und Entscheidungen.

Dabei sind Nudges zunächst einfach nur Gestaltungselemente, die sowohl „for good“ als auch „for evil“ eingesetzt werden können – so wie jedes andere Politikinstrument auch. Es kommt jeweils darauf an, welcher Akteur welches Ziel auf Grundlage welcher Legitimierung mit welchen Prozessen und Instrumenten verfolgt und welche Zustimmung diese Ziele, Prozesse und Instrumente von der Bevölkerung erhalten, wenn alles offengelegt wird.4 Abstraktion hilft hier meist wenig; die ethische, ökonomische und gesellschaftliche Bewertung wird stets fallspezifisch sein.

Einsatzbereiche für digitales Nudging

Digital Nudging gestaltet digitale Entscheidungsumfelder. Gestaltungselemente sind vor allem grafisches Design (Text, Farben), Erinnerungen, Rückmeldungen, Formulierungen (Framing) sowie Anordnungen (Priming, Salienz) von Inhalten. Einsatzmöglichkeiten finden sich im kommerziellen Bereich (z. B. im Online-Handel oder auch beim Online-Glücksspiel5), ebenso im zivilgesellschaftlichen (z. B. Aktionskampagnen) und parteipolitischen Bereich (z. B. im Wahlkampf), in Social-Media-Präsenzen im Kampf um Aufmerksamkeit und Likes sowie zunehmend auch im staatlich-regulativen Bereich (z. B. E-Government). Schließlich werden digitale Nudges auch als „Snudges“, also Selbst-Nudges eingesetzt, beispielsweise im Rahmen von Selbstoptimierung durch Self-Tracking -Technologien, als Hilfe zur Einhaltung von Medikation, als Selbstbindungsinstrument, um selbstgesetzte Ziele zu erreichen. Der Fokus liegt beim digitalen Nudging auf dem Design der Nutzerschnittstelle, die entweder zum Vorteil der Nutzer, oder aber zum Vorteil der Gestalter der Schnittstelle eingesetzt werden können. Wohlfahrtstheoretisch ideal und ethisch fair sind solche Schnittstellen, die für beide Marktseiten sowie für die Gesellschaft als Ganzes von Wert sind.

Grundsätzlich sind die verhaltenspolitischen Instrumente beim Online- und Offline-Nudging die gleichen. Wie Gesetze und Verbote, Subventionen und Steuern, Bildung und Information können Nudges für „gute“ und „schlechte“ Zwecke eingesetzt werden. Das Instrument an sich bleibt neutral. Beim Nudging im digitalen Raum sind jedoch einige Besonderheiten zu beachten: Nudges und Architektur der Wahl einer Benutzerschnittstelle können weniger gut erkennbar sein – und damit eher manipulativ wirken – als beispielsweise eine offensichtliche Warenpräsentation als Teil einer Ladenarchitektur.6 Transparenz von Interventionen ist im realen Leben eher gegeben als online. Zudem wachsen die Möglichkeiten der Personalisierung und damit des Targetings an der Schnittstelle zwischen digitaler und realer Welt, man denke etwa an die Echtzeitwerbung auf Smartphones aufgrund von Algorithmen-basierter Beacons im stationären Einzelhandel. Sind sich Kunden dieser Hintergründe nicht bewusst, kann man argumentieren, dass die Entscheidungsfreiheit von Menschen untergraben wird, weil die Information speziell auf diese eine Person – ihre Werte, ihre Präferenzen, ihre Konsumhistorie, ihre momentane emotionale Situation – abgestellt wird.7 Hier wird daher bereits von „hypernudging“8 gesprochen. Bildung und Aufklärung sollen digitale Kompetenzen fördern; diese sind jedoch weitaus umfassender und anspruchsvoller als der klassische Kanon der Konsumerziehung.

Der vorliegende Beitrag geht dieser Debatte nach. Er schärft zunächst die zentralen Begriffe, schlägt sodann Abgrenzungskriterien zwischen „dunklen“ und „hellen“ Nudges (sowie allen Schattierungen dazwischen) vor und schließt mit „Regeln guter Verhaltenspolitik“ in der realen und digitalen Welt.

Was ist (regulatives) Nudging – und was nicht?

Nudging steht für den Einsatz von Instrumenten der verhaltensbasierten Politik (Nudges) auf Grundlage eines empirisch basierten politischen Prozesses, der iterativ-testend das Instrumentarium entwickelt und in Feedbackschleifen verbessert und wirksamer macht.9 Die erste „Nudge Unit“, das britische Behavioural Insights Team, beschreibt diesen Politikprozess als „test, learn, and adapt“10. Die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD), eine der ersten internationalen Organisationen, die systematisch Verhaltenspolitik und Verbraucherpolitik zusammengebracht hat, beschreibt die Phasen des Prozesses im „BASIC“- Framework im Detail und benennt dabei auch Verfahrensregeln, die zum Gelingen beitragen.11 Präziser formuliert, handelt es sich hier um „regulative Nudges“, also um Verhaltensstimuli, die zum Zwecke der Beeinflussung von Verhalten durch Entscheidungsträger des öffentlichen Lebens – Regierungen, Kommunen, internationale Organisationen, aber auch Schulen und Universitäten – eingesetzt werden. Beispiele für regulative Nudges sind Vereinfachungen (der Darstellung, des Zugangs), Standardeinstellungen, (grafische oder andere) Warnhinweise, Kommunikation sozialer Normen, Framing, Erinnerungen, Selbstverpflichtungen und Selbstbindungstools sowie verschiedene Formen der Architektur der Wahl (wie Positionierung und Priming), die die Salienz und den Zugang erleichtern.12 Vereinfacht gesagt, bedeutet Nudging, das erwünschte Verhalten naheliegend, einfach und attraktiv zu machen, mit sozialen Normen zu unterstützen und beim Einsatz auf einen geeigneten Zeitpunkt zu achten, an dem die Zielgruppe aufnahmefähig und wandlungsbereit ist. Das britische Behavioural Insights Team nutzt dafür das Motto mit dem Akronym EAST (easy, attractive, social und timely). Zunehmend werden in diesen Politikprozess partizipativ-deliberative Elemente eingebaut, um zum einen das Politikproblem „vor Ort“ besser zu verstehen und damit die Instrumente wirksamer gestalten zu können und zum anderen, um die Zustimmung und Unterstützung der Bürger zu erhalten.13

Kritisches regulatives Nudging als Politikansatz

Im Gegensatz zum Einsatz dieser Verhaltensstimuli im Marketing oder der Meinungsbildung (Nudging im weiteren Sinne), ist regulatives Nudging (Nudging im engeren Sinne) als Politikansatz durch folgende Elemente klar definiert:14

Legitime Nutzung des Nudgings

Erstens muss das Ziel des Nudgings der Wohlfahrt des einzelnen Bürgers oder Konsumenten sowie letztlich der Gesellschaft als Ganzes dienen – kommerzielle Nudges, eingesetzt von Unternehmen, sind dagegen Marketing, manchmal auch ethisch fragwürdiges, da verdecktes „stealth marketing“. Ebenso wenig fällt staatliche Propaganda und politische Kommunikation darunter, denn hier geht es Machthabern darum, ihre politische Position zu stärken oder die des politischen Gegners zu schwächen. Dies sind nicht-legitime Ziele für staatliche Regulierung und daher handelt es sich auch nicht um regulative Nudges im Sinne der Verhaltenspolitik. Insofern trifft die eingangs skizzierte Kritik der „Datenkraken“ definitorisch gerade nicht auf digitales Nudging zu. Allerdings: In manchen Fällen kann die Wohlfahrt des Einzelnen von der Wohlfahrt der Gesellschaft abweichen, beispielsweise wenn aufgrund einer „grünen Voreinstellung“ teurere Produkte gewählt werden. Auch ungewollte distributive Effekte können eintreten, was mit geeigneten Mitteln (wie Redistribution, Erleichterungen für ärmere Schichten) zu entschärfen ist. In vielen Fällen löst sich dieser Widerspruch auf, wenn statt einer kurz- eine langfristige Zeitperspektive gewählt wird. Dies ist allerdings von politischen Entscheidungsträgern, die ja nach kurzen Legislaturperioden wieder gewählt werden wollen, eher nicht zu erwarten. Auf alle Fälle sollten bei Nudgingpolitiken ernsthafte Kosten-Nutzen-Analysen15 durchgeführt werden, die auch die nicht-intendierten Nebeneffekte der Politikmaßnahmen (wie Reboundeffekt, Boomerang­effekt, Reaktanz) umfassen.

Präferenzen der Zielperson im Vordergrund

Zweitens müssen die politischen Ziele den Präferenzen der Zielp­erson entsprechen, der Staat darf also den Bürgern keine Ziele oktroyieren. Die Definition von Nudging lautet denn auch: „to influence choices in a way that will make choosers better off, as judged by themselves“16, wobei insbesondere das Kriterium „Selbsteinschätzung“ – das „AJBT-Kriterium“ – von Philosophen intensiv diskutiert wird.17 Politische Ziele dürfen folglich nicht ohne Rücksicht auf die Präferenzen der Bürger durchgesetzt werden. Auch hier taucht natürlich die Frage auf, um welche Präferenzen und Ziele es geht: kurz- oder langfristige, egoistische (self-serving) oder soziale (other-serving)? Zudem ist es nicht einfach, die Präferenzen der Menschen festzustellen: Mögliche Ansätze sind Befragungen, deliberativ-demokratische Prozesse (etwa Anwohnerparlamente oder Plebiszite), Messung von Zahlungsbereitschaft, Beobachten von Verhalten (konkludentes Handeln), Entwickeln von Algorithmen auf Basis vergangenen Verhaltens und anderes mehr. Zudem sind sich Menschen häufig ihrer eigentlichen Präferenzen nicht bewusst oder zumindest nicht sicher, und Mikro-Präferenzen bilden sich oft erst in der Entscheidungssituation (sogenannte „konstruierte Präferenzen“). Im Einzelfall zu klären, ist zudem, wie stark der Staat in die Zielautonomie seiner Bürger eingreifen darf (oder muss), wenn es um höherwertige Ziele, wie etwa den Klimaschutz, geht. Offensichtlich ist es nicht banal, das „AJBT-Kriterium“ generell zu klären. In einer freiheitlich-demokratischen Grundordnung gibt es dazu allerdings keine Alternative. Auch demokratische Wahlen stellen bis zu einem bestimmten Grad sicher, dass politische Ziele nicht gegen die Mehrheit des Wahlvolks gehen. Insofern ist die Anwendung von Nudging – wie andere politische Instrumente auch – nicht losgelöst von der politischen Verfasstheit zu sehen. Vielmehr sollte Nudging im engeren Sinne zwingend an eine Form von parlamentarisch-demokratischer Kontrolle gebunden sein.

Echte Wahlfreiheit gewährleisten

Um der Politik Grenzen zu setzen, müssen Nudges drittens so gestaltet sein, dass niemand zu einem bestimmten Verhalten gezwungen oder (gegen seinen Willen) „geschubst“ wird – auch nicht durch prohibitive Austrittskosten oder unsichtbare Algorithmen. Vielmehr muss echte Wahlfreiheit gelten, ohne hohen Einsatz von Zeit, Energie oder sozialer Ächtung. Zur echten Wahl gehört die maximale Transparenz des Nudgings. Transparenz ist aber nur dann gegeben, wenn die Informationen verständlich dargeboten werden. Verdeckte und manipulative Methoden oder listige Designtricks sind grundsätzlich nicht Teil von ethisch akzeptablem Nudging,18 ebenso wenig wie Strategien, die Informationen oder Angebote unnötig komplex machen und Konsumenten gezielt verwirren.19 Die neuere Forschung hat gezeigt, dass die untersuchten regulativen Nudges nicht weniger wirksam sind, wenn sie verständlich und transparent gestaltet werden.20 Vielmehr können manche Nudges sogar an Wirksamkeit gewinnen, wenn sie offengelegt werden.21 Die Politik hat beim Nudging also keine Anreize, „im Dunkeln“ zu arbeiten und damit letztlich ihre Glaubwürdigkeit und das Vertrauen der Bürger aufs Spiel zu setzen.

Dark Nudges, Dark Patterns und Sludges

Werden diese Kriterien eingehalten, dann kann man von „nudging for good“ sprechen, wenn nicht, dann scheint es sich eher um „dark nudging“ zu handeln. Lades und Delaney schlagen sieben Kerndimensionen vor, die ethisches Nudging definieren sollen.22 Ihr Akronym Nudge „FORGOOD“ steht für: Fairness, Offenheit, Respekt, Zielorientierung, Meinungen, Optionen und Delegierung.23 Tatsächlich sind viele Nudges irgendwo zwischen den beiden Idealtypen, und insofern „grau“.24 Was dann jeweils als legitim gilt und was nicht, muss deliberativ geklärt werden. Wenn ein Unternehmen seine Kunden beispielsweise in nachhaltigere Konsumentscheidungen stupst und dabei Gewinn macht, ist dies durchaus im langfristigen Vorteil beider Marktseiten. Dark Nudging täuscht Menschen dagegen gezielt und trickst sie mit dem Ziel der Übervorteilung aus. Einige Branchen sind besonders berüchtigt, die systematischen Verhaltenstendenzen von Menschen (sogenannte „biases“) systematisch auszunutzen, etwa das (Online-)Glücksspiel und der graue Kapitalmarkt. Tatsächlich finden sich dunkle Nudges aber überall – von Uber-Fahrdiensten bis zu Apps, denen man kaum widerstehen kann.25

Eine besondere Form von Dark Nudges sind „sludges“26. Sludges haben ebenfalls einen wohlfahrtsmindernden Effekt, häufig aufgrund eines Designs, das – gezielt oder bei staatlichen Akteuren eher versehentlich – den Zugang zu oder die Nutzung eines wohlfahrtsfördernden Produkts oder Services erschwert. Sludges sind gewissermaßen das Gegenteil der oben genannten „EAST“-Prinzipien des guten Nudge-Designs: Sie machen gute Entscheidungen schwerer, nicht leichter. Beispiele für nicht-intentionale digitale Sludges sind schlecht gestaltete Nutzerschnittstellen oder komplizierte Online-Formulare. Intentionale Sludges sind beispielsweise Verkomplizierung und damit Verschleierung wichtiger Produkteigenschaften (z. B. Versicherungstarife, Hypothekenkonditionen, Telekomtarife), niedrige Einstiegstarife für Kredite mit steil steigenden Kosten nach der Anfangsphase (z. B. Kreditkarten), automatische Verlängerung von Testabonnements ohne einen expliziten Hinweis darauf (z. B. Zeitschriften), die Vermarktung überteuerter oder überkomplexer Produkte an vulnerable Konsumenten. Manchmal kann die beste Politik darin bestehen, Sludges zu erkennen, durch besseres Design zu reduzieren oder gegebenenfalls zu verbieten.

Wie man Nutzer dazu bringen kann, Käufe zu tätigen, Abonnements abzuschließen, Serviceleistungen zu bestellen, die sie eigentlich gar nicht haben wollen, oder auch Daten preiszugeben, die man eigentlich gar nicht teilen wollte, zeigt die Forschung zu sogenannten „Dark Patterns“ bei Nutzerschnittstellen. „Dark Patterns“ sind alle Arten von listigen Designtricks auf Websites und Online-Angeboten, die bewusst darauf ausgerichtet sind, Nutzer zu Handlungen zu bewegen, die eigentlich nicht in deren Interesse sind. Dabei werden oft auch emotionale oder konditionierte Verhaltensweisen gezielt ausgenutzt.27 Die norwegische Verbraucherorganisation Forbrukerradet hat bei einer Untersuchung von Google, Facebook und Windows 10 eine Fülle solcher dunklen Muster gefunden, insbesondere Trickfragen, Unterjubeln von Folgekäufen (sneak into basket), Privacy Zuckering (Datenabsaugen), Vereiteln von Preisvergleichen, Ablenken von wichtigen Inhalten, versteckte Kosten, Confirmshaming, versteckte Werbung sowie heimliches Spamming von Kontakten.28

Dark Nudges schmälern die Konsumentenwohlfahrt. Zwar gibt es Tricks und Fallen solange es Märkte gibt,29 das Ausmaß ist im digitalen Raum deutlich größer, die Möglichkeiten der Manipulation sind umfangreicher und das Monitoring und die Rechtsdurchsetzung sind oft schwieriger, vor allem wenn der Anbieter seinen Firmensitz außerhalb Europas hat. Zudem erwarten Menschen bislang nicht, in allen möglichen Bereichen höchst effektiv manipuliert zu werden, und sind weniger aufmerksam als im realen Leben, wo sie als Konsumakteure Erfahrung haben und durch Konsumerziehung und Bildung eher gewappnet sind. Dagegen haben in der digitalen Welt vor allem die „digital immigrants“ wenig Erfahrung mit diesen Angeboten. Ihre digitalen Kompetenzen sind noch nicht entsprechend entwickelt. Und manche Videomanipulationen wie Deepfakes sind selbst für sehr geübte Betrachter kaum erkennbar. Zwar sind einige dieser Dark Nudges schlicht verboten; wie oben gezeigt, bewegen wir uns jedoch häufig in Grauzonen.

Regeln für eine gute Verhaltenspolitik

Wohlfahrtsmehrende, aber auch dunkle Nudges sind attraktiv: Wie aus der Verhaltensökonomik bekannt, folgen Menschen überwiegend ihren Verhaltenstendenzen und Gewohnheiten und nutzen vereinfachte Heuristiken der Entscheidungsfindung, insbesondere wenn Entscheidungen vor allem vom schnellen, impulsiven „System 1“30 geleitet werden. Die vielen kleinen Erleichterungen, Bequemlichkeiten und die schnellere Erfüllung von Wünschen sind für vielbeschäftige Menschen sehr attraktiv. Allerdings werden diese kleinen Vorteile letzten Endes oft teuer bezahlt: mit Daten, die man eigentlich nicht hergeben würde, bis zur Verödung der Innenstädte aufgrund des wachsenden Online-Handels. In Analogie zum politökonomischen Konzept der „Tyrannei kleiner Entscheidungen“ wird hier von einer „Tyrannei kleiner Bequemlichkeiten“31 gesprochen: Wir werden nach und nach bequemer und unkritischer, was langfristig jedoch zu Zuständen führt, die niemand haben möchte.

Der Blick nach China zeigt eine digitale Dystopie, in der gläserne, ständig bewertete Digitalbürger zur willenlosen Manipulationsmasse eines autoritären Staates degradiert werden.32 Auch wenn diese Zukunft für uns weit weg erscheint, so hat sie doch hinreichend Schreckpotenzial und verweist deutlich auf die Notwendigkeit einer starken, vorausschauenden Daten- und Digitalpolitik. Mit regulativem Nudging hat all dies jedoch nur am Rande zu tun.

In der Tat gibt es in Deutschland und Europa Handlungsbedarf, Regeln und verfassungskonforme Prozesse für regulatives Nudging zu entwickeln.33 Erfahrungen und Vorschläge aus anderen Ländern liegen vor, die Ansätze der OECD und der Europäischen Kommission wurden bereits genannt. Sunstein und Reisch haben auf Grundlage einer empirischen Studie über die Akzeptanz von Gesundheits-, Umwelt- und Sicherheitsnudges in 16 Ländern weltweit „Regeln für gutes regulatorisches Nudging“34 vorgeschlagen. Sie gelten sowohl im digitalen als auch im realen Bereich und schließen direkt an die eingangs genannten Kriterien für gutes Nudging an: „Nudges“ müssen legitime politische Ziele verfolgen, das „AJBT-Kriterium“ einhalten, individuelle Freiheits- und Eigentumsrechte wahren, transparent und sichtbar sein und in einem politischen Prozess debattiert (und mit alternativen Instrumenten verglichen) werden; sie dürfen zudem nicht manipulieren, und ihre Wohlfahrtswirkung muss die entstehenden Kosten übersteigen.

Das Leitbild der digitalen Souveränität,35 das Recht auf informationelle Selbstbestimmung und Privatsphäre, das für funktionsfähige Märkte so wichtige Vertrauen in Märkte sowie letztlich unsere freiheitlich-demokratische Grundordnung werden durch Dark Nudges und Dark Patterns gefährdet. Richard Thaler scheint also gute Gründe zu haben, an den Auftrag „Nudge for Good!“ zu erinnern, wenn er (mit diesem Nudge) signiert.

  • 1 Vgl. C. Sunstein: Misconceptions about nudges, Harvard Universität 2017; für eine detaillierte Klarstellung häufiger Fehlinterpretationen.
  • 2 Vgl. R. Thaler, C. Sunstein: Nudge, Improving decisions on wealth, health and the environment, Yale 2008.
  • 3 Vgl. M. Weinmann, C. Schneider, J. vom Brocke: Digital Nudging, in: Business & Information Systems Engineering, 58. Jg. (2016), H. 6, S. 433-436; C. Schneider, M. Weinmann, J. vom Brocke: Digital Nudging: Guiding Online User Choices through Interface Design, in: Communications of the ACM, 61. Jg. (2018), H. 7, S. 67-73; T. Mirsch, C. Lehrer, R. Jung: Digital Nudging: Altering User Behavior in Digital Environments, in: J. M. Leimeister, W. Brenner (Hrsg.): Proceedings der 13. Internationalen Tagung Wirtschaftsinformatik (WI 2017), St. Gallen 2017, S. 634-648.
  • 4 Vgl. L. A. Reisch, C. R. Sunstein: Verhaltensbasierte Regulierung (Nudging), in: P. Kenning, A. Oehler, L. A. Reisch (Hrsg.): Verbraucherwissenschaften: Rahmenbedingungen, Forschungsfelder und Institutionen, Berlin 2020.
  • 5 Vgl. P. W. S. Newall: Dark nudges in gambling, in: Addiction Research & Theory, 27. Jg. (2019), H. 2, S. 65-67.
  • 6 Wobei auch das multisensuale Storemarketing gezielt im Hintergrund mit Musik, Duft, Licht und Farben arbeitet.
  • 7 Beispielsweise: H. Skaug Sætra: When nudge comes to shove: Liberty and nudging in the era of big data, Technology in Society 2019, https://doi.org/10.1016/j.techsoc.2019.04.006 (28.1.2020).
  • 8 Vgl. M. Lanzing: „Strongly Recommended“. Revisiting Decisional Privacy to Judge Hypernudging in Self-Tracking Technologies, in: Philosophy & Technology, (32), 2019, S. 549-568.
  • 9 Vgl. X. Troussard, R. van Bavel: How Can Behavioural Insights Be Used to Improve EU Policy?, in: Intereconomics, 53. Jg. (2018), H. 1, S. 8-12, https://www.intereconomics.eu/contents/year/2018/number/1/article/how-can-behavioural-insights-be-used-to-improve-eu-policy.html (28.1.2020).
  • 10 Vgl. British Behavioural Insights Team (BIT): Test, Learn, Adapt: Developing Public Policy with Randomised Controlled Trials, Report, 14.6.2013, https://www.bi.team/publications/test-learn-adapt-developing-public-policy-with-randomised-controlled-trials/ (28.11.2020).
  • 11 Vgl. OECD: Tools and Ethics for Applied Behavioural Insights: The BASIC Toolkit, BASIC Toolbox, 18.6.2019, http://www.oecd.org/gov/regulatory-policy/tools-and-ethics-for-applied-behavioural-insights-the-basic-toolkit-9ea76a8f-en.htm (28.1.2020).
  • 12 Vgl. C. Sunstein: Nudging: A Very Short Guide, in: Journal of Consumer Policy, 37. Jg. (2014), H. 4, S. 583-588.
  • 13 Vgl. P. John: How Far to Nudge? Assessing Behavioural Public Policy, London 2018.
  • 14 Vgl. R. Thaler, C. Sunstein, a. a. O.; R. Thaler: Misbehaving: Was uns die Verhaltensökonomik über unsere Entscheidungen verrät, München 2018; C. Sunstein: The ethics of influence: Government in the age of behavioural science, Cambridge MA 2016.
  • 15 Vgl. C. Sunstein: The cost-benefit revolution, Cambridge MA 2019
  • 16 Vgl. R. Thaler, C. Sunstein, a. a. O.
  • 17 Vgl. C. R. Sunstein: Better Off, as Judged by Themselves: A Comment on Evaluating Nudges, Harvard Public Law Working Paper, April 2017, Nr. 17-28; R. Sugden: Better off, as judged by themselves’: a reply to Cass Sunstein, in: International Review of Economics, 65. Jg. (2018), H. 1, S. 9-13.
  • 18 Zur vertieften Diskussion von Manipulation und Nudging vgl. C. R. Sunstein: Fifty shades of manipulation, in: ders.: The ethics of influence, a. a. O.
  • 19 Vgl. P. W. Turnbull: Customer Confusion: The Mobile Phone Market, in: Journal of Marketing Management, 16. Jg. (2000), H. 1-3, S. 143-163.
  • 20 Vgl. G. Loewenstein, C. Bryce, D. Hagmann, S. Rajpal: Warning: You are about to be nudged, in: Behavioral Science & Policy, 1 ,2018, S. 35-42; H. Bruns: Can Nudges Be Transparent and Yet Effective?, in: Journal of Economic Psychology, 65. Jg. (2018), S. 41-59.
  • 21 J. S. M. Gustavsson: The Marginal Cost of Transparency: Do honest nudges work? Department of Economics, Finance and Accounting, National University of Ireland Maynooth, Economics, Finance and Accounting Department, Working Paper Series, 2017.
  • 22 Vgl. L. K. Lades, L. Delaney: Nudge FORGOOD, Cambridge MA 2020, https://www.cambridge.org/core/journals/behavioural-public-policy/listing?q=forgood&_csrf=gy56ozCz-TM5XtpK5TNoA-iqsLGB_koCIksE&searchWithinIds=E1EF0B344C8E8750A474259A311582EF (4.2.2020).
  • 23 Ebenda.
  • 24 Vgl. auch C. Sunstein: Fifty shades of manipulation, a.a.O.
  • 25 Vgl. N. Eyal: Hooked: Wie Sie Produkte erschaffen, die süchtig machen, München 2014. Wie die Netflix-Algorithmen die nächste Staffel zeigen, so zeigen die Uber-Algorithmen bereits die nächste Fahroption, noch bevor die erste Fahrt endet.
  • 26Vgl. R. Thaler: Nudge, not sludge. Editorial, in: Science, 2018, S. 431; C. Sunstein: Sludge Audits, 2020, https://www.cambridge.org/core/journals/behavioural-public-policy/article/sludge-audits/12A7E338984CE8807CC1E078EC4F13A77 (4.2.2020).
  • 27 Konzept der Dark Patterns nach H. Brignull: Dark Patterns, https://www.darkpatterns.org/ (28.1.2020). In einer virtuellen Hall of Shame sammelt Brignull Dark Patterns: https://www.darkpatterns.org/hall-of-shame (29.1.2020).
  • 28 Vgl. Forbrukerradet: Deceived by design: How tech companies use dark patterns to discourage us from exercising our rights to privacy, Oslo, 2018.
  • 29 Vgl. G. A. Akerlof, R. J. Shiller: Phishing for phools: The economics of manipulation and deception, Princeton 2018.
  • 30 Vgl. D. Kahneman: Schnelles Denken, langsames Denken, München 2012.
  • 31 Das Konzept stammt von Colin Horgan, https://onezero.medium.com/the-tyranny-of-convenience-2e7fa145ab4 (23.1.2020).
  • 32 Vgl. J. Tirole: Digital Dystopia, NBER Paper, 2019.
  • 33 Vgl. K. Purnhagen, L. A. Reisch: ‘Nudging Germany’? Herausforderungen für eine verhaltensbasierte Regulierung für Deutschland, in: Zeitschrift für Europäisches Privatrecht, 3/2016, S. 629-655.
  • 34 Vgl. C. Sunstein, L. A. Reisch: Trusting nudges: A Bill of Rights for Nudging, Routledge 2019.
  • 35 Vgl. Sachverständigenrat für Verbraucherfragen (SVRV): Digitale Souveränität, Gutachten des SVRV, Berlin 2017.

© Der/die Autor(en) 2020

Open Access: Dieser Artikel wird unter der Creative Commons Namensnennung 4.0 International Lizenz (https://creativecommons.org/licenses/by/4.0/deed.de) veröffentlicht.

Open Access wird durch die ZBW – Leibniz-Informationszentrum Wirtschaft gefördert.


DOI: 10.1007/s10273-020-2573-y

Fachinformationen über EconBiz

EconBiz unterstützt Sie bei der Recherche wirtschaftswissenschaftlicher Fachinformationen.