Kategorien
-
Neueste Beiträge
- Schaumdampfbad
- Framing – geht’s denn überhaupt ohne?
- Sind Entscheidungen durch Algorithmen immer gerecht und wahr?
- Anregend: Marktforschung (als notwendiger und bestimmender) Teil der „praktischen Strategieberatung“ wird gemacht aber als solche nicht verkauft
- Sozialer-Massen-Druck zementiert Mittelmaß, Social Ranking entsorgt Meinung
Neueste Kommentare
- Hanspeter Reiter bei Sind Entscheidungen durch Algorithmen immer gerecht und wahr?
- Hanspeter Reiter bei Framing – geht’s denn überhaupt ohne?
- Jonathan Franzen: man hat verlernt, Lärm von Substanz zu unterscheiden | M³ Blog bei Konjunktivierung des Lebens durch „always on“?
- Procrastinator bei Social Media: Twitter oder die Gratwanderung des geschätflich Sinnvollen
Archive
- März 2023
- März 2019
- Januar 2018
- November 2016
- Oktober 2016
- April 2016
- Februar 2016
- Januar 2016
- März 2014
- Januar 2012
- Juni 2011
- Mai 2011
- April 2011
- März 2011
- Dezember 2010
- November 2010
- Oktober 2010
- September 2010
- August 2010
- Juli 2010
- Juni 2010
- Mai 2010
- März 2010
- Februar 2010
- Dezember 2009
- September 2009
- Juni 2009
- April 2009
- März 2009
- Februar 2009
- Dezember 2008
- November 2008
- Oktober 2008
Archiv der Kategorie: Allgemein
Framing – geht’s denn überhaupt ohne?
Dies ist eine Ausführung angeregt von Artikel »Wie mächtig Framing wirklich ist«. Dieser Artikel ist motiviert vom kürzlich geleakten ARD Framing Manual.
Ziemlich am Anfang des Spektrum Artikels steht folgendes: „Robert Entman, Koryphäe der Framing-Forschung, schrieb im Jahr 1993: »Trotz der Allgegenwart des Framing in den Sozialwissenschaften sucht man vergebens nach einer Theorie, die erklärt, wie Frames sich in Texte einbetten und sich dort manifestieren oder wie Framing das Denken beeinflusst.«“
Aus soziologischer Sicht (meine erste Studienfachrichtung) gibt es durchaus konkrete Denkansätze zum Thema Framing: Ervin Goffmans Rahmenanalyse (1974, dt. 1977) zeigt, dass Rahmen notwendige Bedingung sind, um überhaupt sinnvoll in Gruppen bzw. in sozialen Situationen interagieren zu können.
Aus unterschiedlichen Beobachtungswinkeln ist es m.E. zwingend notwendig, ein und dasselbe Ereignis unterschiedlich zu rahmen: Ein Ereignis, dass medial für Fernsehzuschauer verbreitet (und durch Kameras „aufbereitet“) wird, hat einen unterschiedlichen Rahmen wie der Rahmen für einen Augenzeugen der live dabei ist. Die Wahrnehmung des Ereignisses dieser Personenkreise ist eine unterschiedliche. Das ist das Thema meiner Magisterarbeit „Die unterschiedliche Wahrnehmung von Ereignissen“ (Tübingen 1995) (NB: Meine Arbeit hört gerade dann auf, wenn es spannend wird, finde ich, wenn ich mir die heute anschaue).
In einen größeren Kontext gestellt: Mit dem soziologischen Klassiker „Die gesellschaftliche Konstruktion von Wirklichkeit“ (Berger Luckmann) bzw. der philosophische Grundlage der Phänomenologie erscheinen mir durchaus theoretische Ansätze vorzuliegen, die erklären, wie „Framing das Denken beeinflusst“, vorausgesetzt das Denken mit erkennbarem Handeln etwas zu tun hat (zumindest gelegentlich, wie wir alle nur hoffen dürfen). Sozialisation im allgemeinen bedient sich ganz selbstverständlich der Rahmensetzung. Das bewusst steuernde interessengetriebene Framing wie im Falle des ARD Framing Manuals ist damit ein Spezialfall zur (H)Erstellung einer spezifischen Wirklichkeit (-sdeutung).
Die ARD ist bei Leibe kein Einzelfall. Politiker machen das in der öffentlichen Auseinandersetzung die ganze Zeit, indem sie versuchen, über ständig wiederholte Nennung „ihrer“ Begrifflichkeiten den Interpretationsstempel des vorliegenden Fakts aufzudrücken – in Diskussionsrunden wird dafür meist mehr Zeit verwendet als für konstruktive Auseinandersetzung.
Die Nutzung des Framing Begriffs im aktuellen Fall ist einer, der Framing als bewusst- und interessens- gesteuert bedeutungssetzend verwendet. Diese Einflussnahme auf die Wahrnehmung von Personen (-gruppen) kann nur dann gut funktionieren kann, wenn Framing allgemein und regelmäßig stattfindet bzw. nach meiner Ansicht stattfinden muss – weil man nur so am sozialen Leben überhaupt teilhaben kann. Framing kann unmöglich nur bewusst absichtsgesteuert sein, sonst würde es nicht oder nur mäßig funktionieren.
Aus linguistischer Sicht (meine zweite Studienfachrichtung) wird man im semantisch-semiotischen Forschungsfeld fündig nach „wie Frames sich in Texte einbetten“ – aus meiner Sicht ist das zentraler Bestandteil z.B. der Sprechakttheorie. Und auch die Medienwissenschaften beschäftigen sich damit, dass es Framing (in medialen Produkten und also auch Texten) gibt: wie sonst kommt man in diesem Fach zu Kritierien für journalistische Qualität? Zumindest habe ich das in den Anfängen des Instituts für Medienwissenschaften in Tübingen gelernt, an dem ich studieren durfte.
Aus meiner Sicht setze ich Herrn Entman (sehr zeitversetzt) entgegnen, dass Framing das Denken nicht nur beeinflusst, sondern ein zentraler – sozial motivierter (ich will teilhaben und von anderen verstanden werden) – Mechanismus des Denkens ist. Framing in der Definition „ich will teilhaben und von anderen verstanden werden“ ist alltäglich und regelmäßig der Fall. Die Frage ist also nicht, ob „man“ das tun sollte oder nicht – es geht nicht ohne.
Man kann darüber diskutieren, wer unter welchen Umständen wie Bedeutungshoheiten zu erlangen sucht. Im vorliegenden Fall kann man sich damit auseinandersetzen, wie legitim es für die ARD ist, sich bewusst derartige Bedeutungsrahmen geben zu wollen und diese dann aktiv in der öffentlichen Außendarstellung zu verwenden.
Archiv der Kategorie: Allgemein
Sind Entscheidungen durch Algorithmen immer gerecht und wahr?
Der englische Titel “Weapons of Math Destruction. How Big Data Increases Inequality and Threatens Democracy“ verrät klarer das durchaus große Anliegen der Autorin.
Die komplette Buchreflexion von Cathy O‘Neil Buch „Angriff der Algorithmen“ ist zu lang für einen Blogbeitrag. Sie enthält viele Beispiele und ausführliche Zitate des Buchs. Hier geht’s zum Download.
Näheres zum Buch von Seiten des Verlages erhalten Sie hier.
Cathy O’Neil kennt die dunkle der Macht, würde man es Star Wars like ausdrücken wollen. Sie war als Mathematikern bei einem Hedge-Fonds beschäftigt und ist nunmehr Occupy-Aktivistin. Als solche versucht sie der „hellen Seite der Macht“ Vorschub zu leisten, auf der nicht etwa auf Algorithmen verzichtet werden sollte. Vielmehr sollte ein transparenter, klar geregelter, kontrollierter und diskursiver Umgang gepflegt werden. Denn durch Algorithmen werden Menschen digital indiziert und qualifiziert. Dieses ist eine auch ethisch moralische zu begreifende Tatsache, die Cathy O’Neil unter dem Begriff der (Un-) Gerechtigkeit beschreibt und derartige Einordnungen von Personen eingehend in ihrem Buch behandelt.
Häufig hört man in diesem Zusammenhang Argument der Algorithmenanwender, ein mathematischer Algorithmus sei neutraler und damit besser geeignet als Menschen, die durch Fehleinschätzungen und diskriminierenden Vorstellungen „von Natur aus“ schlechter als ein Algorithmus in der Lage seien, Qualifizierungen zu treffen (z.B. bei der Einstellung von Personen). Dieses Argument missachtet, dass auch ein Algorithmus von genauso so fehlerbehafteten Menschen programmiert wird, also deren (fehlerhafte) Annahmen und Vorurteile in die Programmierung des Algorithmus mit einfließen.
Der Begriff im englischen Originaltitel „Weapons of Math Destruction“ (WMD) steht für Algorithmen, die sich rekursiv ausschließlich aus sich selbst speisen und sich damit negativ verstärken. Ihnen fehlt es an aus Sicht des Algorithmus äußeren Lerninformationen, durch die dieser Algorithmus im positiven Sinne lernen könnte. Fehlt dieser Abgleich mit Außeninformationen, werden Selektionen und Entscheidungen, die durch ihn getroffen werden, durch „bösartige Feedbackschleifen“ negativ verstärkt und noch unheilvoller: Anstatt die Wahrheit herauszufinden, wird der Score selbst zur Wahrheit (Cathy O‘Neil „Angriff der Algorithmen“ S. 13, Carl Hanser, München 2017 – ich verwende zukünftig bei Zitaten aus diesem Buch das Sigle AdA). Dies wird gerade dadurch unterstützt, dass häufig einem Ergebnis eines Algorithmus ein größeres Maß „Wahrheit“ zugesprochen wird als einer humanen Stimme. Jedoch ist auch der Algorithmus – siehe oben – menschlich bestimmt und per se so nicht wahrer oder gerechter.
Selbst die Programmierer eines selbstlernenden Algorithmus wird nicht immer und mit der Zeit immer weniger in der Lage sein, Entscheidungen von lernenden Algorithmen nachzuvollziehen. Hier stoßen wir auf ein umfassendes gesellschaftliches und ethisches Problem: lassen wir selbstlernende Maschinen uns Menschen beherrschen? Wie gehen wir mit menschlichen „Einsprüchen“ um? Wie sind derartige ethische Regulierungen technisch in einen Algorithmus zu implementieren? Ist das überhaupt möglich? Diese Fragen müssen einem politisch gesellschaftlichen Diskurs zugeführt werden – im klaren Bewusstsein, dass ein klares eindeutiges „richtig“ nur schwerlich und sicher nicht endgültig zu finden ist. Zugleich ist eine also unvollkommene (gesetzliche) Regeln dringend erforderlich, um die nur in Teilen rationale ethisch moralische – menschliche – Werteordnung vor absolut schlussfolgernden aber von Menschen nicht mehr nachvollziehbare Maschinenentscheidungen zu verteidigen und zu schützen.
Essenzielle Entscheidungen, die über Menschen getroffen werden, dürfen nicht ausschließlich maschinell erzeugt werden. Maschinelle Programme können solche Entscheidungen sehr wohl unterstützen, doch im Eingestehen, dass Algorithmen nicht alles können, sollte – so ineffizient dies aus wirtschaftlicher Sicht auch erscheinen mag – eine Entscheidung, die Menschen qualifiziert, ihnen Chancen ermöglicht (oder auch nicht) stets von Menschen letztkontrolliert werden, ganz egal wie schwierig die Berücksichtigung ethisch-moralischer Faktoren sein mag. Denn so schwierig es sein mag, Menschen mit Richtlinien und Gesetzen für die Berücksichtigung ethisch moralischer Faktoren auszustatten, es erscheint mir einfacher als ethisch moralische Faktoren in maschinellen Code zu übersetzen.
Unternehmen setzen ihre algorithmischen Blackboxes als objektiv und unfehlbar. Algorithmen sind es allerdings – wie O’Neils Buch zeigt – keinesfalls. Weder in wirtschaftlicher Sicht – warum sonst würden sie permanent „verbessert“? Im Besonderen muss die Kraft ihres gesellschaftlichen Einflusses erkannt, diskutiert und kontrolliert werden.
Das Trugbild der „objektiven Algorithmen“, die ein gesellschaftlich akzeptiertes wirtschaftliches Interesse der Unternehmen befördern, enttarnt O’Neil mit ihrem Buch. Sie endet mit folgendem Aufruf:
Diese Entwicklungen sind Teil eines größeren Trends, demzufolge Daten privatisiert und privat genutzt werden, um private Profite zu erzeugen und Macht zu gewinnen, während die Öffentlichkeit von diesem Prozess ausgeschlossen und angehalten wird, sich ordentlich zu benehmen und den Algorithmen zu vertrauen. Es ist an der Zeit, sich dagegen zu wehren. […]
Ich rufe dazu auf, ein Regelwerk aufzubauen, mit dem wir jetzt und in Zukunft die Algorithmen zur Rechenschaft ziehen können. (AdA S. 250)
Ich möchte das Zitat mit einem für mich wichtigen Zusatz erweitern: Die gesellschaftliche Verantwortung der Unternehmen, die mit ihrer Macht (der Algorithmen) einhergeht, muss gesellschaftlich – von der Öffentlichkeit, aber insbesondere von den gesellschaftlichen gewählten Vertretern, den Politikern aktiv eingefordert und wenn erforderlich rechtlich erzwungen werden.
Es ist für eine Transparenz der Algorithmen mindestens der sehr einflussreichen Unternehmen wie zum Beispiel Facebook zu sorgen (zumindest für eine gesellschaftlich akzeptierte Prüfkommission), damit die Art der Einflussnahme öffentlich gemacht und diskutiert werden kann.
In der Verwendung und Kreation von Algorithmen muss die verbindende Kommunikation zwischen jenen, die die ethisch-moralischen oder gesellschaftlichen Konsequenzen ausdiskutieren und ermessen und denen die Algorithmen umsetzen, gefördert werden. Dieser Austausch setzt ein hohes Maß an Verständnis beider Seiten voraus, um Algorithmen vielleicht weniger perfekt, aber dafür mit dem geeigneten Maß an Gerechtigkeit auszugestalten. Aus meiner Sicht ist dieses Ziel nur interdisziplinär zu erreichen.
Jetzt erst Lust auf mehr? Dann lesen Sie die komplette Buchreflexion von Cathy O‘Neil Buch „Angriff der Algorithmen“ Sie enthält viele Beispiele und ausführliche Zitate des Buchs. Hier geht’s zum Download.
Und prompt ein dazu passender Artikel in der ZEIT 2/18 vom 4.1.2018 und hier online einzusehen.
Archiv der Kategorie: Allgemein
Anregend: Marktforschung (als notwendiger und bestimmender) Teil der „praktischen Strategieberatung“ wird gemacht aber als solche nicht verkauft
Der BVM Regionalabend in München am 10. November 2016 war ein anregender. Layla Keramat von frog gab Einblicke ins Design Thinking. Qualitative Marktforscher können sich in den dabei angewandten Methoden gut wiederfinden.
Überraschend – eventuell nur, dass es immer noch nicht „anders“ ist?: Es ist kein neues Thema, wie der Beitrag von Oliver Tabino aus dem Jahr 2011 beweist. Ich kann seinen Beitrag komplett „unterschreiben“, emotional wie rational.
Wenn sich Design Thinking von Marktforschung „hart“ abgrenzt, versteht Design Thinking Marktforschung ausschließlich als quantitative (number crunching) Marktforschung. Daher kommt glaube ich das Unbehagen meines Marktforschungsherzens: dass Design Thinking sich die Methoden nur aus der qualitativen Marktforschung „geklaut“ hat. Aber, mein liebes Marktforschungsherz, da gibt’s weder ein Abo drauf noch ein „dürfen doch nur wir“. Design Thinking wendet Methoden der qualitativen empirischen Sozialforschung erfolgreich für unternehmerische Innovation an: das ist toll und – bestimmt nicht nur – bei frog: erfolgreich.
Aus Marktforschungssicht spannend (I):
Hier wird Markforschung angewendet, aber nicht verkauft. Marktforscherische Methoden werden als Mittel zur Produkt-, Service- und Innovations- Entwicklung selbstverständlich angewendet. Das „für“ wird verkauft. Im weitesten Sinne lässt sich das Produktportfolio von frog als praktische Strategieberatung und -Umsetzung“ zusammenfassen. Der Erfolg des Unternehmens beruht darauf, aus marktforscherischen Ergebnissen unmittelbar etwas für den Kunden „handfestes“ zu machen, entwickeln, generieren, umzusetzen.
Pointiert: Marktforschung machen ohne Marktforschung zu verkaufen, sondern das was die Forschung zu Tage fördert.
Aus Marktforschungssicht spannend (II):
Design Thinking und Marktforschung haben viel gemeinsam und können voneinander lernen.
Die qualitative Marktforschung kann lernen, wie Ergebnisse praktischer, direkter für Unternehmen umgewandelt – angewendet werden können – warum nicht sich einen „Designer“ ins Boot holen, der handfeste Vorschläge macht? siehe römisch (I): warum nicht vom Erfolg von frog lernen und variieren?
Design Thinking wiederum kann sich methodische Kreativität von qualitativer Marktforschung abholen. Ich habe da spontan an Dialogische Introspektion gedacht. Das liegt nahe. Mit der Methode habe ich mich zusammen mit meinem Kollegen Heribert Simmel und einem der dazu maßgeblichen Wissenschaftler Dr. Thomas Burkart intensiv befasst und diese aus der Psychiatrie stammende Behandlungsmethode für die kommerziell orientierte qualitative angewandte Marktforschung erfolgreich überführt.
Archiv der Kategorie: Allgemein
Archiv der Kategorie: Allgemein
Fürst Algorithmus: wir sind zurück im Mittelalter
In der Zeit 16/2016 vom 07. April 2016 auf S. 40 stellt Christoph Drösser in einem Artikel vor, dass es Bemühungen gibt, die Wirkung von Algorithmen öffentlich darzustellen. Was sie für den Nutzer entscheiden und herauszufinden warum bzw. nach welchen Kriterien. Umfassender stellt der Autor das Thema in seinem Buch Total berechenbar? Wenn Algorithmen für uns entscheiden dar.
Algorithmen spielen heutzutage sehr häufig eine entscheidende Rolle, sei es bei der Auswahl von Bewerbern den richtigen Kandidaten zu finden – und dabei sämtliche Gesetze zur Antidiskriminierung zu beachten, sei es um Preise zu bestimmen in Abhängigkeit der Position des Nutzers, die den Aufwand berücksichtigt, die Konkurrenz zu bevorzugen. Sei es den richtigen Lebenspartner zu finden oder das next big gadget.
Algorithmen sind black boxes, die Entscheidungen treffen. Für mich. Im Zweifel ohne dass ich eine Chance habe, diese „akute“ Entscheidung direkt und unmittelbar zu beeinflussen. Ich stelle mir dabei die Frage, wer diese Algorithmen programmiert und auf welcher Grundlage. Ich komme zum Schluss, dass ethisch-moralische, soziale oder gesellschaftliche Auswirkungen eher selten eine Rolle spielen. Hat der Programmierer denn bereits Erfahrungen oder die Ausbildung, um das Ausmaß des Algorithmus überhaupt oder auch nur ansatzweise nach den oben genannten Kriterien zu ermessen? Ist vielmehr sein Auftraggeber nicht in der Pflicht, diese Gedanken, Überlegungen und Auswirkungen anzustrengen und macht er das? Will der Auftraggeber dafür Zeit und Geld investieren? Ich glaube: ganz überwiegend können all diese Fragen mit nein beantwortet werden. Eher spielen das direkte meist materielle Interesse wie mehr Umsatz oder größerer Kundennutzen – um zwei Beispiele zu nennen – einzig eine Rolle.
Genau das verursacht mir ein mulmiges Gefühl in der Magengegend. Der Mensch kann Entscheidungen, die ihn selbst betreffen, nicht direkt beeinflussen. Er gerät in die vollkommene Abhängigkeit, Entscheidungen aufoktroyiert zu bekommen, die nach Interessen anderer gesteuert werden: das Unternehmen, welches seinen Umsatz mehren, den Kredit auch zurückbezahlt bekommen möchte.
Nicht das solche Interessen nicht legitim oder auch für den Nutzer nicht etwa „gut“ oder vorteilhaft sein könnten: Gesellschaftlich aber ist das der Rückfall ins Mittelalter, in dem der Fürst alleine entschied, was gut für seine Vasallen war.
Insofern ist die Digitalisierung der Welt regressiv, sie führt in eine Welt, die dem einzelnen die Entscheidung nimmt, frei über sein Leben zu entscheiden. Der digitale „Fürst Algorithmus“ ist Entscheidungsträger.
Wie Mittelalter üblich, wird es hoffähig werden, diesem Fürsten zu huldigen, ihn milde zu stimmen, ihn auszutricksen, um Vorteile zu erlangen. Dem Fürsten gegenüber unsichtbar machen wird man sich ganz im Gegensatz zu den mittelalterlichen Möglichkeiten nicht machen können. Seine digitalen Fänge sind umfassend.
Es wäre hilfreich, angehenden Programmierern einen philosophischen Grundkanon zu vermitteln. Vieles in der Welt wird algorithmisch gesteuert. Es wäre beruhigend zu wissen, dass die Menschen, die diese Entscheidungs-black-boxes konstruieren, sich, den Auftraggebern und der Welt die Frage stellen, welche – ja durchaus kapitalen – Auswirkungen eine algorithmische Entscheidung für das Leben eines Menschen haben kann. Möge der Fürst Algorithmus weise werden.
ich ziehe den Schluss, dass ich in der digitalen Welt – und die ganze Welt wird digital, das ist nicht aufzuhalten – lieber in einer als aufgeklärten Welt geltenden und nicht in einer im Mittelalter verhafteten leben möchte.
Dazu erscheint es notwendig, die digitale Freiheit des einzelnen einzufordern, diese zu erkämpfen, wie es einst Bauern, Vasallen, Abhängige, Studenten, Künstler, Freigeister im 18. und 19. Jahrhundert taten. Die Geschichte der letzten dreihundert Jahre zeigt einen langen und schmerzvollen Weg auf. Den es dennoch zu beschreiten gilt. Womöglich geht’s ja sogar schneller und weniger schmerzvoll, wenn sich denn Unternehmen und Politik der Grundwerte des selbstbestimmten Lebens gewahr werden und die einhergehenden Rechte und Regeln bestimmen. Optimistisch und blauäugig? Was wäre die Alternative? Ich kenne die dunkle Seite des Fürsten Algorithmus nicht. Ich sehe sie punktuell aufscheinen, ich vermute, ich fürchte.
Archiv der Kategorie: Allgemein
POPC – permanently online, permanently connected
In der Zeit 5/2016 auf S. 33 und online hier schreiben Peter Vorderer und Christoph Klimt über die Folgen, die das permanent aktivierte Smartphone auf den sozialen Umgang hat. Sie entwickeln 17 Thesen, was wird sich wie für den Einzeln verändern wird. Ausführlicher werden die Thesen in der Fachzeitschrift Publizistik 03/2015 dargestellt.
Ganz nebenbei: Klingt dröge, flach, untief, uninteressant. So möchte ich nicht leben. Jedoch: andere, jüngere werden so (ähnlich) leben (wollen).
Marktforscherisch ist das eine schwierige Zielgruppe. Denn eine Einzelperson hat wenig selbst zu sagen, sondern stimmt lediglich zu oder auch nicht (These 17).
Ganze Felder der Marktforschung und der angewandten Sozialforschung sind „vom Aussterben bedroht“:
Crowd-Befragung und Big Data (Thesen 2 und 3) werden (auch) qualitative Marktforschung weitestgehend ablösen.
Teilnehmende Beobachtung wird ersetzt durch GPS und Onlinetracking basierte Verfolgungsmechanismen. Wobei damit ein entscheidender Aspekt der Beobachtung mit dem Auge des Beobachters weg fällt. Dieses Minus wiegt für mich deutlich schwerer als das Plus einer vermeintlich größeren Objektivität (die absolut praktisch unerreichbar bleiben wird).
Soziologisch gesellschaftlich stelle ich die These auf, dass diese starke Veränderung von Leitlinien, die eine Person und seine Position innerhalb der Gesellschaft bestimmen, eine starke Gegentendenz zur Folge hat. Es also eine (große) Gruppe Menschen der „nächst-nächsten“ Generation geben wird, die sich der Totaltransparenz und permanenten Sozialkontrolle verweigern, schlicht als Folge generativer Abgrenzungsmechanismen.
Es bleibt dringliche Aufgabe der Politik und Gesellschaft, den Diskurs über die Auswirkungen der digitalen Techniken auf Gesellschaft und Einzelperson anzustoßen – siehe dazu auch mein früherer Blogbeitrag zum Digital Manifest. Führen sollten wir diesen Diskurs alle.
Archiv der Kategorie: Allgemein
Informationsverflachung durch Interessen filternde Algorithmen
Eli Pariser bei einer TED Veranstaltung zum Thema Beware online „filter bubbles“.
Er stellt fest, dass Interessen filternde Algorithmen das Blickfeld einengen. Auch die Zeit 26/2011 vom 22.6.2011 setzt sich auf S.37 mit dem Thema auseinander (noch? nicht online verfügbar).
Man könnte den Effekt auch Informationsverflachung nennen. Kreativität lebt vom „nicht Angepassten“. Das heißt, Ideen entstehen (mindestens sehr viel eher) bei einem Musterbruch. Genau das aber verhindern die google’schen oder facebook’schen Algorithmen. Sie erzeugen einen Fluss des langweilig Bekannten, Angepassten, der Kreativität und Ideentum über kurz oder lang ruiniert.
Mir ist es nicht gelungen, in Facebook ein zu entfernendes Häkchen zu finden, die diesen Algorithmus abschaltet :-( Bei Google können Cookielöschung und (so merkwürdig es klingt) das eingeloggte Suchen Abhilfe schaffen. Denn nur mittels Registrierung kann man die Art des Suchens manipulieren.
Diese Algorithmen unterstellen, dass der bestehende Blickwinkel der persönlich „richtige“ ist. Doch selbst für das einzelne Subjekt lässt sich derartige Objektivität nicht aufrecht erhalten. Schon allein das heraklit’sche panta rei zeigt, dass etwas, was heute stimmt, das Richtige ist, morgen nicht unbedingt stimmen, das Richtige bleiben muss.
Man hüte sich daher vor zu viel „wir (Google, Facebook etc.) wissen – viel besser als Du – was für Dich Nutzer gut ist“. Die Anbieter überschreiten damit die Grenze eines unterstützenden Instruments hin zum bevormundenden. Im Extrem also bringt dieser Algorithmus nicht größeren Nutzen für den Nutzer, sondern Gleichschaltung, Mittelmaß und altbacken Bekanntes.
Eine der letzten Innovationen wäre vermutlich, dass ein „verbesserter“ Algorithmus die Wünsche des Nutzers schon vor Emergieren „erkennt“ und entsprechende Vorschläge unterbreitet. Das aber bedeutet das Ende von Individualität und Selbstbestimmtheit.
Auf Deutsch soll das Buch unter dem Titel „Die Blase des Vorsortierten“ bei Hanser im kommenden Jahr erscheinen. Einstweilen hier für Kaufinteressierte der Hinweis auf den Originaltitel: