Cookies disclaimer

Our site saves small pieces of text information (cookies) on your device in order to keep sessions open and for statistical purposes. These statistics aren't shared with any third-party company. You can disable the usage of cookies by changing the settings of your browser. By browsing our website without changing the browser settings you grant us permission to store that information on your device.

I agree

03 2018

Quantifizierungswahn

Ein Interview mit Vladan Joler über den Bericht Facebook Algorithmic Factory

Vladan Joler / Raimund Minichbauer

Raimund Minichbauer: Wir beschäftigen uns in diesem Interview mit Forschungen über Facebook, die von Share Lab durchgeführt wurden. Wie ist Share Lab entstanden?

Vladan Joler: Wir gründeten die Share Foundation im Jahr 2011. Es war ursprünglich eine Reaktion auf die optimistischen Zugänge zu Technologie, Internet und Netzkultur. Wir veranstalteten regelmäßig groß angelegte Meetings von Netzaktivist_innen und Netzkulturleuten – Treffen, Festivals, Konferenzen mit bis zu 2.000 Teilnehmer_innen. Das Ziel war, Möglichkeiten für Meinungs- und Ideenaustausch zu schaffen. Aber dann wurde uns bewusst, dass wir lediglich dadurch, dass wir Leute zusammenbringen, unsere Fähigkeiten, mit Problemen umzugehen, nicht besonders weiterentwickeln können, und wir wechselten zu einer anderen Strategie: Wir schufen eine Organisation, die primär auf Fachkompetenz basierte. Wir begannen – in Belgrad und Serbien –, verschiedene Spezialist_innen zu versammeln: Jurist_innen, Medientheoretiker_innen, Cyberforensiker_innen und Leute mit verschiedenen technischen Spezialkenntnissen. So wandelten wir uns zu einer Organisation mit der Kompetenz, verschiedene Aspekte von Infowar zu monitoren – hauptsächlich Angriffe auf investigative Journalist_innen oder unabhängige Online-Medien, wie sie vor vier oder fünf Jahren in Serbien aber auch in der Region stattfanden. Bei Onlineattacken oder wenn Journalist_innen und Medien auf diese Weise unter Druck gesetzt wurden, konnten wir cyberforensische Hilfe anbieten, um den Angriff zu analysieren, aber etwa auch Unterstützung durch juristische Expertise. Wir entwickelten uns also zu einer Organisation, die Monitoring bezüglich all dieser Fälle betrieb und gleichzeitig eine Art von Rote-Kreuz-Notfallseinsätzen im Cyberspace durchführte. Das war auch insgesamt eine sehr interessante Zeit – Serbien befand sich zwischen zwei Regierungen und wir konnten den Entwicklungen aus dem Netz heraus folgen.

Aber wenn man eine große Organisation hat, muss man viel Zeit und Energie aufwenden, um sie am Laufen zu halten – eine tragfähige Strategie für ihren Erhalt entwickeln, Projektanträge schreiben etc. So bildeten einige von uns eine Gruppe, die sich stärker der Forschung widmen wollte. Wir begannen mit Untersuchungen zu ‘unsichtbarer Infrastruktur’. Wir begannen wirklich ganz bei den Grundlagen: Wir beschäftigten uns mit den verschiedenen Formen von Netzwerken, wir versuchten, verschiedene Arten von Datenströmen zu mappen. Und so tauchten wir tiefer und tiefer in einen Gegenstand ein, den wir als Surveillance Capitalism bezeichnen. Wir begannen, verschiedene Arten von Trackers zu untersuchen, verschiedene Überwachungstechnologien und auch Firmen, die in diesem Bereich tätig sind. So gab es z.B. Untersuchungen zu einer Organisation namens ‘Hacking Team’. Wir versuchten, mit ähnlichen Methoden zu arbeiten, wie sie vermutlich auch die NSA einsetzt. Wir sammelten Metadaten von E-Mails etc., aber um Leute von der anderen Seite, die ‚Bösen‘ sozusagen, zu tracken. Es fühlte sich ein wenig an, als wären wir Detektive oder investigative Journalist_innen, aber von einer etwas seltsamen Art, weil wir Maschinen untersuchten, Tools, Prozessen und Datenströmen folgten. Dies führte auch zu den Forschungen über Facebook und die Algorithmen, die durch die Moderation von Informationen unsere Wahrnehmung von Realität formen; zur Analyse der Prozesse, durch die wir von User_innen in Produkte verwandelt werden, und der Frage, wie sie aus unserem Onlineverhalten Macht und Profit schöpfen.

RM: Was war die Ausgangshypothese der Facebook-Forschungen?

VL: Es gab kein spezifisches Ziel. Unsere Forschungen gehen meistens von der Vorstellung aus, dass wir im Dunkeln tappen. Wir wissen nicht viel darüber, was hinter den Bildschirmen passiert, hinter den Technologien, die wir nutzen. Die Grundmotivation ist sozusagen, Licht in die Sache zu bringen. So war es auch mit den Facebook-Forschungen: Wir wollten herausfinden, wie wir als Außenstehende aktiv werden können im Sinne von Algorithmic Transparency. Wir wollten testen, wie weit es für uns möglich ist, eine Art von unabhängiger Untersuchung so eines komplexen Systems durchzuführen.

RM: Bevor wir uns nun näher mit den Forschungen beschäftigen, könntest du bitte das grundlegende Konzept des Social Graph kurz erklären?

VJ: Der Social Graph ist das Herz des Systems und der Ontologie, die sie schaffen. Es ist die Grafik aller Akteur_innen, Objekte und Beziehungen im System. Es gibt hunderte verschiedene Arten, in denen die Algorithmen Daten extrahieren. Jede einzelne dieser Dateneinheiten, die extrahiert wurde, wird Teil dieser einen riesigen Grafik. Jedes Mal, wenn wir etwas hochladen oder eine andere Aktivität ausführen, wird dies zu einem Knoten in diesem System. Dieser Knoten kann wiederum zu einem anderen Knoten in Beziehung stehen. Wenn ich zum Beispiel ein Bild hochlade, wird dieses Bild zu einem Knoten, aber ich als User bin auch ein Knoten, und die Beziehung zwischen mir und diesem Bild wäre in diesem Beispiel ‚hochgeladen‘ – User / hochgeladen / Knoten. Andere Akteur_innen im Graph können unterschiedliche Beziehungen zum selben Knoten haben – like, share, tag, oder was immer man mit diesem Bild machen kann. Der Social Graph ist eine mehrdimensionale Kartographie von allem in diesem ‚Reich‘. Und auf der Basis dieser Kartographie können sie verschiedene algorithmische, statistische Analysen durchführen.

RM: Wird in dieser Kartographie und Ontologie ein grundlegender Unterschied gemacht zwischen einem/r User_in und einem anderen Objekt, etwa einem Foto, oder sind diese Objekte grundsätzlich gleich?

VJ: Auf dieser Ebene ist es gleich. Einige Objekte können eine größere Bandbreite an verschiedenen Beziehungen zu anderen Objekten haben, aber ein Objekt ist ein Objekt. Es gibt hier keine Hierarchie verschiedener Objekte. Der Graph ist das Zentrum des Prozesses und auf dieser Basis versuchen verschiedene Algorithmen verschiedene Arten von Schlüssen zu ziehen. Das kann in unterschiedliche Richtungen gehen, etwa jemandem personalisierte Werbung zu zeigen, oder zu verstehen, welcher sozialen Klasse jemand angehört, oder den News Feed eines/r User_in zu erstellen. Aus den hunderten verschiedener Algorithmen, die verschiedene Arten von Schlüssen aus der Grafik ziehen, sind wir in unseren Forschungen einem Strang gefolgt – wie verschiedene Algorithmen das Endprodukt dieses Prozesses schaffen, also die User_inneprofile für das Targeting.

RM: Wenn man euren Analysen folgt vom Sammeln der Daten über ihre Verarbeitung bis zum Targeting der User_innen, hat man den Eindruck, dass der/die individuelle User_in in eine Wolke von Daten aufgelöst wird, um dann am Ende wieder zu einer individuellen Einheit zusammengesetzt zu werden. Würdest du dem zustimmen?

VJ: Ich habe nicht den Eindruck, dass die Grenze von uns als Individuum am Ende so wichtig ist. Manchmal werden wir als Gruppe behandelt, manchmal als individuelles Target. Der Prozess, in dem interpretiert wird, wer wir sind, was unser Verhalten bedeutet und wie wir durch dieses Verhalten definiert werden, wird in einer Art von Fuzzylogik abgeglichen mit dem Prozess, in dem die andere Seite analysiert wird, die Werbung und was der/die Kund_in möchte, der/die unser Profil kauft, uns als Target kauft. Das bezieht sich nicht auf die Ebene des Individuums, sondern auf die Ebene von Gruppen von Menschen, die durch verschiedene Eigenschaften definiert werden. Dabei kann eine Gruppe durchaus aus Leuten mit ziemlich unterschiedlichen Eigenschaften bestehen: Nicht nur solchen, die die gleiche Art von Musik mögen oder die im selben Stadtteil wohnen. Das kann ganz unterschiedlich sein, aber für das System ist es eine Gruppe. Nennen wir diese Gruppe 107888179. Die Logik, warum die Maschine auf die Idee kam, dass es sich hier um eine Gruppe handelt, ist völlig artifiziell. Für uns menschliche Beobachter ist es wahrscheinlich unmöglich, zu verstehen, warum diese Leute zur selben Gruppe gehören. Wenn wir uns ansehen, wie die Zielgruppen erstellt werden, sehen wir, dass nur die erste Ebene direkt durch menschliche Logik bestimmt ist, also etwa: Zuordnung nach Geschlecht. Das ist etwas, das man verstehen kann, aber wie die Zuordnungen auf tieferen Ebenen erfolgen, ist ziemlich artifiziell. Ein Beispiel, um das zu illustrieren, wären etwa die automatisierten Auslieferungslager von Amazon. Dort gibt es natürlich unendlich viele Regale und diese werden von Robotern befüllt. Eine Ware wird in einem bestimmten Regal an einem bestimmten Ort platziert, aber wie dieser Ort bestimmt wird, folgt nicht menschlicher Logik, wie etwa alle Uhren in ein bestimmtes Regal zu geben. Nein, der Ort wird durch einen Algorithmus bestimmt, auf der Basis von Live-Feeds zu den Bestellungen, welche Produkte gemeinsam in einer Bestellung vorkommen etc. Ein/e Arbeiter_in, der/die in diesem Auslieferungslager arbeitet, könnte nichts finden ohne die Hilfe einer Software, die mit diesem algorithmischen System verbunden ist. Ich glaube, dass das bei Facebook und seinen Algorithmen auf einer bestimmten Ebene ähnlich funktioniert. Es ist einfach jenseits menschlicher Logik.

RM: Wie du ausgeführt hast, werden bei der Verarbeitung der Daten Aggregationen auf kollektiven Ebenen geschaffen. Segmente und Gruppen werden konstruiert. Ich hätte erwartet, dass in einem Sozialen Netzwerk den aktiven Interaktionen zwischen den Leuten – den Friends, den Gruppen, die entstehen etc. – dabei mehr Bedeutung zukommt. Aber als ich eure Berichte gelesen habe, hatte ich den Eindruck, dass es auch hier viel mehr nur um die Frage geht, wer Rotwein und Harry Potter mag, um das Beispiel aus deinem Text zu verwenden. Und meine Beziehung zu einem anderen menschlichen User wird dann in erster Linie daraufhin untersucht, die Frage zu beantworten, ob der/die andere User_in auch Rotwein mag, was die Hypothese unterstützen würde, dass ich zu dieser Zielgruppe gehöre. Es sieht so aus, als wären dies einfach nur ‚taxonomische Kollektive‘, die ausschließlich in der Beobachtung konstruiert werden, und die Interaktionen zwischen den Leuten sind viel weniger wichtig, als ich erwartet hätte.

VJ: Ja, ich glaube, so kann man das sagen. Aus der Perspektive der menschlichen User_innen betrachtet, ist es normalerweise sehr wichtig, dass wir zu einer bestimmten Gruppe von Freund_innen gehören, dass wir Teil einer bestimmten Community sind. Es gibt eine bestimmte Art und Weise, in der wir unsere sozialen Beziehungen verstehen. Aber für die Algorithmen ist das ganz anders: So wird etwa die Frage, was wir im News Feed sehen, primär von einem bestimmten Algorithmus definiert, aber gleichzeitig auch durch hunderttausende von Datenpunkten mit beeinflusst. Die Algorithmen können in bestimmte Muster von Besonderheiten unseres Verhaltens eindringen, die aber wiederum nur für sie wichtig sind, wenn sie versuchen, unsere Aktivitäten zu interpretieren. Aber für uns als Menschen wäre das völliger Unsinn. Und wenn die Algorithmen z.B. festzustellen versuchen, welcher sozialen Klasse wir angehören, führen sie verschiedene Berechnungen durch, die weit über die üblichen Kategorien wie Einkommen und Wohnbezirk hinausgehen. Für sie gibt es sehr viele verschiedene Datenpunkte, die verwendet werden können, um unsere soziale Klasse zu bestimmen.

RM: Da Quantifizierung die zentrale Produktionsform von Facebook ist, stellt sich die Frage, wie sich das auf das Verhalten der User_innen auswirkt bzw. darauf, welche Verhaltensweisen das Interface ermöglicht bzw. unterstützt. Die Reduzierung qualitativer Unterschiede ist ja ein erster Schritt bei der Quantifizierung…

VJ: Ich glaube, dass das grundsätzlich der Quantifizierungswahn ist, den man bis zu den Anfängen wissenschaftlicher Methoden zurückverfolgen kann. Wir Menschen versuchen, alles zu quantifizieren – belebte und unbelebte Natur, unser Verhalten, unsere Emotionen und so weiter. Ich verstehe das im Sinne von Lyotards “affinity to infinity”. Der gegenwärtige Kapitalismus hat die Mittel, um verschiedene Grenzen zu erforschen, zu erobern und zu kolonisieren. Mit den Technologien, über die wir heute verfügen, kann das bis ins Unendliche gehen. Im Moment sind wir bei der Quantifizierung von affektivem und kognitivem Verhalten. Das ist ein neues Feld der Verwertung und sie versuchen, aus den Ressourcen – das sind grundsätzlich wir – so viel wie möglich herauszuholen. Das ist, was Facebook mit ziemlichem Erfolg macht, und dann verwenden sie es, um daraus Gewinne zu erzielen und Macht zu kumulieren.

RM: Wenn die Entwickler_innen von Facebook ein neues Element des Interface gestalten, sind sie sich natürlich dessen bewusst, dass das letztendliche Ziel dahinter die Quantifizierung ist. Als ihr die Patente von Facebook analysiert habt, hattet ihr den Eindruck, dass durch dieses eigentliche Ziel eine Strukturalisierung oder Mechanisierung des User_innenverhaltens entsteht? Ich habe zum Beispiel vor kurzem einen Text über Social Bots gelesen, in dem unter anderem festgestellt wurde, dass es für die Bots in Sozialen Netzwerken letztlich nicht so schwierig ist, das Verhalten der menschlichen User_innen zu imitieren, weil die menschlichen Aktivitäten selbst schon so mechanisiert sind.

VJ: Wenn wir über das Interface sprechen, sind glaube ich die Unterschiede zwischen Facebook und dessen ‚Vorläufer‘ MySpace interessant. In MySpace hatte man die Möglichkeit, sein Interface bis zu einem gewissen Grad zu gestalten, verschiedene Dinge zu kreieren, zu designen, wie die eigene Seite aussieht etc. Aber in Facebook ist alles strukturiert. Für uns als immaterielle Arbeiter_innen ist es gestaltet wie die Arbeitsboxen in einem Großraumbüro. Es gibt nicht viel zu tun außer dem, was für uns vorgesehen ist: etwas zu posten, zu kommentieren etc. Es gibt keine Möglichkeit, über das vorgegebene Feld hinauszugehen. Diese Interfaces sind zu einer effizienten Form der Kontrolle geworden. Sie kontrollieren, wie sich die Leute auf diesen Plattformen verhalten und wie sie dort etwas produzieren. Was Kontrolle betrifft, ist uns während des Rechercheprozesses immer stärker klargeworden, dass es Orte wie Facebook nicht nur gibt, um dort unsere Emotionen zum Ausdruck bringen zu können und für die sozialen Beziehungen. Diese Orte werden immer mehr genutzt etwa von der Einwanderungsbehörde, die deinen Facebook-Account überprüft, wenn du in die USA einreist, oder von Versicherungen und Banken. Sobald uns als User_innen klar wird, dass uns jemand beobachtet und dass, was wir dort sagen und welches Bild wir hochladen, unsere Kreditwürdigkeit beeinflussen wird oder die Frage, ob wir in die USA einreisen können, werden wir unser Verhalten ändern. So werden diese Plattformen zu Orten der Kontrolle und wir hören damit auf, dort unsere Emotionen frei zum Ausdruck zu bringen, und beginnen, diese Seiten und Profile im Sinne eines netten öffentlichen Auftritts umzugestalten. Ich glaube, dass das eine Gefahr für Facebook selbst darstellt. Unsere Emotionen und unser Verhalten sind ja ihre zentrale Ressource, und wenn sie gleichsam unterdrückt werden, bekommen die Plattformen nicht mehr ausreichend qualitatives Material. Sie bekommen dann eher klinisch reine professionelle Profile anstatt solcher mit Emotionen, Likes etc.

RM: Denkst du, dass diese Probleme auch hinter den Ankündigungen stehen, die Facebook Anfang 2018 gemacht hat, dass sie zu ihren Wurzeln zurückkehren wollen, die direkten Beziehungen zwischen den Menschen stärken und sozusagen wieder zum netten, behaglichen sozialen Netzwerk werden wollen?

VJ: Das ist, weil sie beunruhigt sind. Während des letzten halben Jahres oder Jahres ist die Unzufriedenheit mit Facebook angewachsen. Und die Kritik, wie übel Google und Facebook sind und wie sie das soziale Gefüge zerstören, wird zum Mainstream-Narrativ. Und ich glaube, dass das im Moment ihre Hauptsorge ist, dass sie aufhören könnten, der nette behagliche Ort zu sein, und ein Ort für offizielle Profile werden, wie LinkedIn. Das bedeutet nicht, dass sie ein grundsätzliches Problem mit der Verwertung von Daten bekommen werden, aber das Ergebnis wird einfach flacher werden als es jetzt ist.

RM: Facebook extrahiert aus seinem Netzwerk nicht nur laufend Daten, sondern führt dort auch Experimente durch. Das war nicht Thema eurer Recherchen, aber ich nehme an, dass ihr der Frage nachgegangen seid, was man zu diesem Bereich herausfinden und welche Erkenntnisse das ermöglichen könnte?

VJ: In einem vor kurzem durchgeführten Experiment war Serbien einer von sechs Staaten, in denen Facebook Änderungen im News Feed getestet hat, was inzwischen global in ihrer ‚Weniger Medien – mehr Freunde‘-Politik umgesetzt wurde. Das war natürlich nicht das erste Mal, dass sie Experimente durchgeführt haben. Ich glaube, dass der gesamte Prozess des Managens des Netzwerks auf kleinen Experimenten basiert, auf Versuchen, die Feineinstellungen des Systems ein wenig zu verändern und zu sehen, ob das die Gewinne positiv oder negativ beeinflusst, oder wie die Leute ihr Verhalten ändern als Reaktion auf bestimmte Modifikationen. Etwa bei Terroranschlägen macht es einen großen Unterschied, wie die Informationen gefiltert werden, ob man den Leuten mehr Bildern mit glücklichen Hunden und Katzen gibt, oder mehr Bilder mit Blut und Toten. Ich bin sicher, dass Facebook viele solcher Experimente durchführt in verschiedenen Gruppen und Segmenten, oder in regionalen Einheiten, auf nationaler Ebene etc.

RM: Wie weit ist es möglich, Facebook-Daten zu bekommen und von außerhalb des Netzwerks zu forschen?

VJ: Unsere Möglichkeiten zu forschen sind sehr beschränkt, wofür es verschiedene Gründe gibt. Zuallererst: Das System ist extrem komplex. Wir hatten zuerst geplant, einige Datenmessungen durchzuführen, aber dann ist uns klargeworden, dass es nicht möglich ist, eine saubere Versuchsumgebung herzustellen. In dem Moment, in dem du auf eine Website gehst, ist das Experiment schon kontaminiert. Es gibt so viele Datenflüsse, dass du nicht herausfinden kannst, was wovon beeinflusst wird. Es ist wirklich schwierig, diese Black Boxes auf der Ebene der Daten zu analysieren, die Daten richtig zu interpretieren und etwas durch Reverse Engineering zu rekonstruieren. Es gibt Experimente verschiedener Größenordnung und Tools für die Analyse von außen, aber damit kann man nur einen kleinen Teil des riesigen Mosaiks verstehen. Für eine solche Untersuchung auf Datenebene bräuchte man sehr viele Ressourcen und nicht zuletzt die entsprechenden Spezialist_innen, etwa für Datenanalyse, Cyberforensik und künstliche Intelligenz. Wir werden es niemals schaffen, diesbezüglich mit einer Plattform wie Facebook mitzuhalten. Durch ihre finanziellen Möglichkeiten können sie die besten Köpfe kaufen, die aus den Universitäten kommen, und keine unabhängige Gruppe, nicht einmal Regierungen können da konkurrieren.

Ich bin auch grundsätzlich skeptisch, was die Idee der Algorithmic Transparency betrifft. Selbst wenn wir die Kapazitäten hätten, um die Prozesse von außen genau genug analysieren und etwas rekonstruieren zu können, würde es nicht funktionieren. In der Zeit, die man benötigt, um das zu tun, hätte sich das System immer schon wieder weiterentwickelt. Es wären schon wieder neue Algorithmen im Einsatz und die nächsten Experimente hätten inzwischen stattgefunden. Die Map etwa, die wir erarbeitet haben, ist eher symbolisch und kein exaktes Abbild. Denn viele der Elemente in dieser Grafik gehören zu verschiedenen Strukturen, die zu verschiedenen Zeiten existiert haben. Es hat deshalb real vermutlich nie einen Zeitpunkt gegeben, in dem der Prozess tatsächlich genau so ausgesehen hat. Aber immerhin, das ist die Map, die wir haben, und auch wenn sie nicht so exakt und präzise ist, ist es doch etwas, das man auf einer eher symbolischen Ebene betrachten und versuchen kann, die Komplexität zu erfassen, anstatt es nur auf der Ebene bloßer Fakten verstehen zu wollen.

Ein anderer problematischer Punkt bei der Algorithmic Transparency ist die Frage, wem gegenüber es transparent sein soll. Wenn man online nach dem Ausdruck ‘Facebook algorithms’ sucht, erhält man auf den ersten drei bis fünf Seiten hauptsächlich Einträge von Marketingagenturen, die versuchen, Facebook-Algorithmen zu hacken, um ihr Ding durchzuziehen. Wenn die Facebook-Algorithmen völlig transparent wären, würde es Firmen wie etwa Cambridge Analytica leichter gemacht, dies zu missbrauchen, um etwa Leute während Wahlkämpfen zu beeinflussen. Es ist eine schwierige Frage, wie solche Prozesse in sinnvoller Weise transparent gemacht werden könnten.

RM: Wie schätzt du vor dem Hintergrund der Forschungen die verschiedenen Möglichkeiten zum Widerstand ein?

VJ: In der kritischen Auseinandersetzung mit Sozialen Medien gibt es hauptsächlich drei Ansätze: Der erste möchte raus aus der Technologie. Wir sprechen hier von neo-luddistischen Ideen, Technologie abzulehnen, hinauszugehen in die Natur und ein neues Gleichgewicht zu suchen zwischen uns, der Natur und der Technologie. Der zweite Ansatz will im bestehenden System bleiben. Die Perspektive kann einerseits darin bestehen, den Bereich zu regulieren, also etwa Regierungen oder die EU, die versuchen, Facebook zu regulieren. Eine weitere Perspektive ist, im System zu bleiben, aber andere Beziehungen zwischen uns als User_innen und den Eigentümer_innen dieser Fabriken zu entwickeln. Dazu gehören etwa Ansätze, Gewerkschaften immaterieller Arbeiter_innen zu organisieren, oder verschiedene Ideen, einen Dialog zwischen den User_innen/Arbeiter_innen und den Eigentümer_innen zu entwickeln. Es gibt auch radikalere Ideen, etwa Obfuscation, die aber auch darauf basieren, im System zu bleiben, also etwa einen Facebook-Account zu haben, aber Wege zu finden, um bestimmte Funktionen des Systems durch Vernebelung/Verwirrung bis zu einem gewissen Grad zu stören. Das sind die Leute, die drinnen bleiben und innerhalb der Fabrik kämpfen wollen. Der dritte Ansatz besteht darin, das System fundamental zu verändern oder neu aufzubauen. Die Grundidee dabei ist, dass z.B. soziale Netzwerke nicht grundsätzlich schlecht sind, aber dass wir neue und andere soziale Netzwerke brauchen. Und wenn wir sie mit Open Source Tools etc. neu bauen, werden sie ok sein. Ich weiß nicht genau, welcher Ansatz der beste ist.

Es gibt zwei interessante Fälle aus der Vergangenheit: Der erste ist GeoCities, das Ende der 1990er / Anfang der 2000er eine monopolähnliche Position hatte im Bereich des Hostings persönlicher Websites. Der zweite ist Friendster, das eine Position fast wie Facebook hatte, aber in der Zeit vor Facebook. Beide hatten also eine ähnliche Position wie Facebook heute. Es gibt eine Art von forensischer Analyse des Todes von Friendster. Die Forscher untersuchen den Tod von Friendster auf der Ebene des Social Graph und analysieren, wie der Social Graph von Friendster zusammengebrochen ist. Es begann an der Peripherie, mit den kleinen ‚unwichtigen‘ Knoten, die anfingen, rauszugehen. Dadurch wurden die ‚wichtigen‘ Knoten immer stärker voneinander isoliert, weil die kleinen Knoten als Links zwischen den großen fungiert hatten. Wir sprechen hier von einem Prozess ähnlich jenem, in dem das Universum expandiert und abkühlt und die Galaxien immer mehr voneinander isoliert werden. So ist es auch Friendster ergangen. Die ‚wichtigen‘ Knoten verloren ihr soziales Kapital und dann brach das System zusammen. Und ich glaube, dass das auch ein mögliches Szenario ist für den Tod von Facebook, dass es von innen her kollabiert, nicht durch Einwirkung von außen. Ein anderes Szenario wäre, dass es aufhören würde, genügend Profite zu erwirtschaften – im selben Moment würde der Stecker gezogen. Und dann kommen wir zur Frage der Ressourcen: Wir sind die Ressourcen, unsere Emotionen. Wenn wir wollen, dass das System nicht mehr funktioniert, sollten wir damit aufhören, Ressourcen zu liefern, d.h. wir sollten aufhören, dort Emotionen zu produzieren.

RM: Wie war das Ende von GeoCities?

VJ: Das hatte mit der finanziellen Situation zu tun. GeoCities wurde für ich weiß nicht wie viele Milliarden von Yahoo gekauft. Es gab den Dot-com crash. Und Yahoo schaffte es eine Zeit lang nicht, die Business-Strategie zu definieren. GeoCities brach zusammen, weil die wirtschaftlichen Erwartungen nicht erfüllt werden konnten.

RM: Share Lab hat sich des Öfteren mit Privacy-Themen beschäftigt, so gibt es etwa einen Text dazu, was man über eine Person aus der Browser History herausfinden kann. Das Konzept der Privacy auf individueller Ebene hat allerdings seine Grenzen…

VJ: Vor einigen Jahren gab es eine Zeit, in der das Thema Privacy für viele Organisationen einschließlich unserer eigenen sehr im Zentrum stand. Aber je mehr man sich mit der Frage beschäftigt, desto klarer wird, dass die Möglichkeiten zur Verwertung unseres Verhaltens im Zusammenhang mit Technologien praktisch grenzenlos sind. Das kann wirklich weit gehen. Sogar über ein so simples Phänomen wie Elektrizitätsflüsse kann man sehr viel herausfinden über die Leute, die ihre Geräte anschließen und abstecken. Und das kann tiefer und tiefer gehen. Es wird uns niemals gelingen, Privacy zu verteidigen.

Und unsere Definitionen von Privacy ändern sich laufend. Es ist nicht das Gleiche wie vor fünfzig Jahren oder vor hundert Jahren, und es wird nächstes Jahr nicht das Gleiche sein. Es ist ein laufender Prozess, der niemals zu einem perfekten Ergebnis führen wird, aber es ist wichtig, die Diskussion fortzusetzen und zu versuchen, zu verstehen, was Privacy bedeutet im Kontext von Technologie und Netzwerken, und etwa auch in den aktuellen Diskussionen um künstliche Intelligenz. Ich denke, es ist ein interessantes Feld für ethische Diskussionen und als etwas, das wir als Qualität zu erreichen versuchen, aber es ist wirklich schwierig, dorthin zu gelangen. Die Diskussion über Privacy hatte ihren Höhepunkt auch schon vor einigen Jahren und ist seither abgeebbt. Das ist auch Teil eines allgemeineren Problems, dass wir nämlich sehr schnell von einem aktuellen Thema zum nächsten wechseln. Vor einigen Jahren war es Privacy, dann war es Algorithmic Transparency, jetzt ist es künstliche Intelligenz. Wir springen sehr schnell von einem aktuellen Thema zum nächsten, ohne dabei viel zu lösen.

RM: Wie du schon erwähnt hast, hat die Kritik an Facebook und anderen monopolähnlichen Plattformen den Mainstream erreicht, nach den Problemen rund um die US-Wahl 2016, Fake News, aber auch Sorgen um Generationen von zunehmend süchtigen und überforderten Kindern. Kann das eine neue Situation schaffen?

VJ: Es ist eine neue Situation. Die Kritik hat es ja schon gegeben, in Spezialdiskursen wie etwa in der nettime- oder der unlike-us- Mailinglist, aber sie ist jetzt im Mainstream angekommen. Vor Kurzem hat etwa George Soros in einem Vortrag Facebook und Google als Bedrohung für die Gesellschaft bezeichnet. Ich bin wirklich neugierig, wie diese Entwicklungen die Haltungen zu Facebook und Google verändern werden. Es sieht jedenfalls so aus, als würden wir uns in einem Nachdenkprozess befinden und inzwischen weit entfernt sein vom techno-utopischen Glauben an die Plattformen.

Jänner 2018
Im Rahmen des Projekts Midstream (http://midstream.eipcp.net/interviews).


Hinweise

Facebook Algorithmic Factory. Der Bericht, von dem das Interview ausgeht, ist in drei Teilen erschienen: “Immaterial Labour and Data Harvesting”, “Human Data Banks and Algorithmic Labour” und “Quantified Lives on Discount”. Sie sind gemeinsam mit zwei weiteren Texten zu Facebook (“The Human Fabric of the Facebook Pyramid”, “Colonization with Love”) zugänglich auf: https://labs.rs/en/category/facebook-research/. Die anderen erwähnten Recherchen, etwa zu Invisible Infrastructures oder Hacking Team, finden sich auf https://labs.rs/en/.

Taxonomische Kollektive. Vgl. dazu auch: Irina Kaldrack und Theo Röhle, „Teilmengen, Mengen Teilen. Taxonomien, Ordnungen und Massen im Facebook Open Graph“, in: Inge Baxmann, Timon Beyes und Claus Pias (Hg.), Soziale Medien – Neue Massen, Zürich, Berlin: diaphanes 2014, S. 75-101.

Social Bots. Beim erwähnten Text zu Social Bots handelt es sich um die Einleitung von Robert W. Gehl and Maria Bakardjieva zum gemeinsam von ihnen herausgegebenen Band Socialbots and Their Friends. Digital Media and the Automation of Sociality, New York: Routledge 2017.

MySpace. Zu den in politischer Hinsicht mehrfach interessanten Unterschieden zwischen MySpace und Facebook vgl. etwa danah boyd, „Viewing American class divisions through Facebook and MySpace“ (2007), http://www.danah.org/papers/essays/ClassDivisions.html.

Facebooks Experiment. Zum angesprochenen aktuellen Experiment vgl. etwa http://www.bbc.com/news/technology-41733119 oder https://www.nytimes.com/2017/11/15/opinion/serbia-facebook-explore-feed.html. Zu einem älteren Experiment, das zu öffentlichen Kontroversen geführt hat, vgl. z.B. https://www.nytimes.com/2014/06/30/technology/facebook-tinkers-with-users-emotions-in-news-feed-experiment-stirring-outcry.html.

Obfuscation. Die Strategie wurde im gleichnamigen Buch entwickelt von Finn Brunton und Helen Nissenbaum, Obfuscation. A User’s Guide for Privacy and Protest, Cambridge, London: MIT Press 2015.

Friendster. Die Autopsie von Friendster findet sich in folgendem Text: David Garcia, Pavlin Mavrodiev, Frank Schweitzer, „Social Resilience in Online Communities: The Autopsy of Friendster”, 2013, https://arxiv.org/pdf/1302.6109.pdf.

Browsing Histories. Der angesprochene Share-Lab-Text findet sich auf https://labs.rs/en/browsing-histories/.

George Soros zu Facebook und Google. Vgl. https://www.theguardian.com/business/2018/jan/25/george-soros-facebook-and-google-are-a-menace-to-society.