Digitalkompetenzen im Kontext (uvm)

Am 8. Mai 2019 durfte ich auf Einladung der EMEK/COFEM (der eidgenössischen Medienkommission, resp. der commission fédérale des médias) zusammen mit Friederike Tilemann den ersten Drittel eines überaus spannenden Nachmittagsprogramms zum Thema “Streamingdienste und Plattformen: Herausforderungen für Medien & Öffentlichkeit” bestreiten. Wir thematisierten Medien- und Digitalkompetenzen, danach sprachen Judith Möller und Sébastien Noir über die Relevanz von Algorithmen, und zuletzt widmeten sich Natascha Just und Wolfgang Schulz dem Thema Gouvernanz. Der Anlass war öffentlich und gut besucht. Im Folgenden nun ein subjektiver Allerkürzestbericht meinerseits, einschliesslich einer — wie ich doch hoffe — lesefreundlichen Version meiner Eingangspräsentation. Denn, wie heisst es so schön: sharing is caring.

Nach den Grussworten des EMEK/COFEM-Präsidenten Otfried Jarren stellte Manuel Puppis den derzeitigen Stand des Arbeitspapiers der Kommission vor. Die Erkenntnisse des Tages sollen in die bevorstehende neue Version des Dokuments einfliessen. Dies habe, zusammen mit dem Wille zur Förderung des öffentlichen Dialogs, den heutigen Anlass motiviert. Danach teilte Friederike Tilemann ihr Expertenwissen über Medienkompetenzen: gerade Heranwachsende brauchen sowohl Kompetenzen als auch Schutz, um gewinnbringend mit Medien umgehen zu können. Und erstere beinhalten nicht nur Nutzung, sondern auch Wissen, Kritikvermögen, reflektiertes Handeln und Gestaltungsfähigkeit.

Dadurch wurde mir natürlich ganz komfortabel ein Ball zugespielt, den ich nun ins Feld der Digitalisierung bringen konnte. Denn das meiste, was bisher zu Medienkompetenzen gesagt worden ist, bleibt wichtig und relevant. [Das ist übrigens auch aus Genners “Kompetenzen und Grundwerte im digitalen Zeitalter” ersichtlich.] Ich biete keinen Widerspruch sondern Ergänzung an.

Meine Präsentation ging ebenfalls auf die Frage ein, wie mit digitalen Medien umgegangen werden kann, aber aus einer etwas andern Perspektive. Mein Hintergrund ist einerseits in Soziologie, Volkswirtschaft und Wirtschaftsinformatik, andererseits bringe ich durch meine Vergangenheit als selbständige Social Media Beraterin auch praktische Erfahrungen mit. Untenstehend nun meine Folien — die ich, um der Mehrsprachigkeit der Schweiz an diesem gesamtschweizerischen Anlass wenigstens halbwegs gerecht zu werden, auf französisch verfasst hatte — sowie ein ungefähres Transkript meiner 10minütigen Präsentation, angereichert mit Klammerbemerkungen und ein paar Links.

Inhalte, Infrastrukturen und … Daten

Warum lohnt es sich, bei Onlinemedien und Internetplattformen über Medienkompetenz hinauszudenken? Zum einen liegt dies wohl an der Technologie selber, respektive daran, wie diese Technologie funktioniert und was sie ermöglicht. Denn digitale Streamingdienste und Plattformen bestehen sowohl aus Inhalte als auch aus Infrastruktur. Und wie allgemein beim Internet findet auch hier eine Konvergenz und Rekonfiguration von ebendiesen Inhalten und Infrastrukturen in noch nie dagewesenem Masse statt.

Zum andern gibt es in der ökonomischen Transaktion zwischen Mediennutzerinnen und -nutzern auf der einen Seite und Onlinemedien und -plattformen auf der andern eine neue Entität: Daten. Big Data. Alles, was online geschieht, und auch was online nicht geschieht, kann als Datensatz gesammelt und ausgewertet werden. Dies erfolgt (wie im Arbeitspapier der EMEK schon erwähnt wird) zum Teil durch die benutzen Plattformen selber, aber nicht nur: an Nutzungsdaten kommen auch Werbenetzwerke, Drittfirmen, Geräteanbieter, andere Plattformen und Diensten, Telekomanbietern und zum Teil staatlichen Institutionen. [Dass ich diesen letzten Punkt nicht vergessen habe, verdanke ich übrigens Antonio Casilli’s offenem lettre à l’Europe sur le numérique.] Dieser Datenaspekt — seinerseits ermöglicht durch die technische Infrastruktur — ist unter anderem darum so wichtig, weil er sich oft massiv auf die Geschäftsmodelle von Onlinemedien und Plattformen auswirkt. Diese werden nun nicht mehr für die Bedürfnisse der Nutzerinnen und Nutzer optimiert, sondern können durch die Datenflut optimal für Werbezwecke und eine immer noch umfangreichere Datensammlung kalibriert werden.

[Da ich angenommen habe, dieser Punkt würde in den nächsten zwei Stunden noch ausführlicher diskutiert werden, womit ich hinterher gesehen auch durchaus richtig lag, ging ich nicht weiter darauf ein, sondern beschränkte mich auf die These, dass Kenntnisse über deren ökonomische Interessen den kompetenten Umgang mit Onlinemedien erleichtern.]

Kontext

Das Ziel, kurz (und provokant) zusammengefasst, lautet also: Bürgerinnen und Bürger pflegen einen mündigen Umgang mit Onlinemedien… in einer Umgebung, die zu verstehen neben grundlegenden Medienkompetenzen auch ein breites sowohl technisches als auch ökonomisches Bewusstsein erfordert. Und dies in einem Umfeld, wo monopolistische Dynamiken die Konsumfreiheit stark einschränken (z.B. durch fehlende Alternativen, durch die Gebundenheit, durch Netzwerkeffekte usw.), wo Einzelpersonen einer allgemeinen Datensammlung eigentlich kaum entgehen können, und wo sich dadurch eine Resignation breit macht, die nicht mit Akzeptanz verwechselt werden darf. Hier nun zur Problembewältigung vor allem auf grösseren Nutzungskompetenzen zu bestehen, ist offensichtlich problematisch [worauf ich schon sowohl in der NZZ wie auch in einen Buchkapitel hingewiesen hatte — auch wenn ich vor acht Jahren noch optimistischer (oder naiver?) war].

Schichtenmodelle (a.k.a. turtles all the way down)

Zurück zur Technologie, denn immer wieder wird die Forderung laut, Leute sollen doch einfach programmieren lernen, um für die digitale Welt fit zu sein. Das mag zwar nicht schaden, aber so einfach ist es leider auch nicht. Zum Beispiel stellt sich sofort die Frage: programmieren in welcher Sprache? JavaScript? R? Python? HTML? PHP? Um digitale Kompetenzen im Zusammenhang mit Onlinemedien zu beschreiben, ist eine der grossen Herausforderungen die Komplexität solcher digitalen Dienste. Denn «digital» ist ein Überbegriff für eine Vielzahl von Anwendungen und Geräten.

Schon nur die Verschachtelung verschiedener Dienste und Protokolle und die Verbindungen zwischen Hardware und Software werfen die Frage auf: auf welchem konzeptuellen Niveau möchten wir digitale Kompetenzen fordern und/oder fördern? Geht es um die Einstellungen und Funktionsweisen einer bestimmten Applikation oder Plattform? Die sich ja doch alle paar Monate wieder ändert? Oder geht es darum, einen Webbrowser zu nutzen und konfigurieren zu können? Zu wissen, wie unser Gerät und sein Betriebssystem funktionieren? Wie es mit dem Internet kommuniziert? Oder gar: wie das Internet funktioniert und woraus Datenpakete bestehen? Welche Arten der Datenübertragung es gibt? Woraus die Hardware besteht und warum dies eine Rolle spielen kann? [NB: Natürlich gibt es viele verschiedene Schichtenmodelle, aber vielleicht kann es schon gewinnbringend sein, überhaupt zu erkennen, wie instruktiv die Repräsentation in Schichten sein kann, und zu realisieren, dass eben viele Schichten auf die Endnutzung einwirken.]

DigComp 2.1

Ja wie sieht es denn bei bestehenden Frameworks aus? Zum Beispiel DigComp 2.1, der «Europäischen Referenzrahmen für digitale Kompetenzen der Bürgerinnen und Bürger», dessen ursprüngliche Version von 2013 in den letzten Jahren aktualisiert worden ist. Eines der fünf Kompetenzgebiete heisst jetzt nicht mehr «Information» sondern «Information und Data Literacy». Die andern vier sind «Kommunikation und Kollaboration» (früher nur: «Kommunikation»), «Digitale Inhaltserstellung» (das «digital» ist neu), und unverändert «Sicherheit», und «Problemlösung». In den Kompetenzbeschreibungen des Frameworks wurde «Information» mehrheitlich durch «Daten, Information und digitale Inhalte» ersetzt. Das ist ein Schritt in die richtige Richtung. [An dieser Stelle erlaube ich mir eine Buchempfehlung zum Thema.]

Aber wenn man sich nun die Fähigkeitslevel und Anwendungsbeispiele des DigComp 2.1 Frameworks genauer anschaut, illustrieren sie mehrheitlich einen eher limitierten Fokus, nämlich einen, der grösstenteils auf Webinhalte und sogenannte Enduser-Anwendungen gerichtet ist. Bezeichnenderweise meint auch «Daten» nach wie vor nur die von menschlichen Sinnen auffassbare Information in der Nutzungsoberfläche von Datenbanken. Es geht nirgendwo ausdrücklich um besseres Verständnis davon, wie von Maschinen und Software lesbare Signale geschaffen, verarbeitet und verwertet werden.

Nutzen -> Verstehen?

Dabei wäre doch gerade in Anbetracht des heutigen Medienkonsums, der ja je länger je stärker via digitale Intermediäre geschieht, ein solches Verständnis äusserst wertvoll. Denn Informationen zirkulieren zunehmend algorithmisch fragmentiert und ausserhalb ihres ursprünglichen Kontexts. Illustrativ sei hier zum Beispiel eine wissenschaftliche Studie erwähnt mit jungen Menschen, die Facebook zwar nutzen, sich aber nicht bewusst waren, dass das soziale Netzwerk Postings in einer bestimmten, algorithmisch personalisierten Reihenfolge anzeigt. Sie gaben ihren Facebook-Freundschaften die Schuld, wenn sie etwas nicht zu sehen bekamen. Andere Untersuchungen haben gezeigt, dass viele Leute nicht zwischen Googles Resultatlinks und Werbelinks unterscheiden können. Und es gibt weitere empirische Befunde und Fallbeispiele über bestimmte Onlinedienste und -aktivitäten die zeigen, dass Menschen neue Technologien zwar nutzen, aber nicht unbedingt verstehen. Vor allem die Logik algorithmischer Systeme ist unbekannt oder kann oft gar nicht nachvollzogen werden – was sie nicht nur in der Nutzung merklich einschränkt. Nein, es verhindert auch Autonomie, die so nicht ausgelebt oder zumindest eingefordert werden kann.

(Fast ein) Fazit

Idealerweise eröffnen digital Kompetenzen neue Möglichkeiten in einer digitalen Welt. Es darf nun unterschieden werden: Was das reine Bewerten digitaler Inhalte betrifft, so können wohl die meisten Konzepte der “traditionellen” Medienkompetenz — unter Einbezug der Funktionsweise des Internets und von neuen Geschäftsmodellen — übertragen werden. Damit aber Bürgerinnen und Bürger Medien für sich und die Gesellschaft sinnvoll einsetzen können, brauchen sie bessere Optionen als die bestehenden Datensammler und multinationalen Plattformen.

Dies wird noch klarer, wenn wir in diesem Bereich über den Fokus des Inhalts hinausgehen und auch den Infrastrukturaspekt betrachten: Die Plattformen bieten Komfort im Medienkonsum und der Medienproduktion, das ist unbestritten, sie schränken aber gleichzeitig die Handlungsmöglichkeiten so stark ein, dass einen selbst Programmierungskenntnisse meist keine neuen Möglichkeiten eröffnen. Echte Gestaltungsmöglichkeiten gibt es somit nur mit einer unabhängigen Infrastruktur und mit Plattformen, die Daten nicht zu Werbe- und Weiterverkaufzwecken sammeln — was aber Einzelne nicht alleine erreichen können.

Wenn es also nicht einfach darum gehen soll, bestehende Onlineplattformen und Dienste effizienter zu nutzen, dann sind digitale Kompetenzen in erster Linie ein systemisches Anliegen.

Hier endete mein Beitrag, und es begann ein angeregtes Gespräch zu Fragen, die von Bildungsbudgets über die Marktmacht von Usern bis hin zu Excel reichten.

[Hinterher weiss man ja immer mehr. Algorithmen und die Datenthematik aus ökonomischer Sicht wurden in den kommenden Programmteilen tatsächlich ausführlich besprochen, wie ich das geahnt hatte. Etwas aber hatte ich falsch eingeschätzt habe, als ich meine Präsentation auf zehn Minuten verkürzte und ganze Folien weglassen musste. Ich liess den sogenannten “Chilling effect” unerwähnt, da ich damit rechnete, er käme im Zusammenhang mit der Datensammlung wohl sowieso prominent zur Sprache. Dem war aber nicht so. In den Diskussionen darüber, weshalb die Datensammlung und -verwertung so zentral mit dem Thema Medien und Öffentlichkeit verwoben ist, kamen zwar viele ebenfalls äusserst relevante Dimensionen zur Sprache. Zum Beispiel: die potenzielle Personalisierung von Medienangeboten anhand gesellschaftlicher Kriterien (S. Noir), die mögliche Fragmentierung der Öffentlichkeit (J. Möller), die Veränderung der Geschäftsmodelle und somit der Marktstrukturen (N. Just), die De-/Refragmentierung als Herausforderung des Diversitätsbegriffs in der Medienforschung (W. Schulz), sowie Datenzugang als möglicher Innovationsvorsprung. Auch die Privatsphäre, respektive die Notwendigkeit sie zu schützen, wurden erwähnt. Dass jedoch die generelle Datensammlung und -verwertung auch dazu beitragen kann, dass sich gewisse Menschen online weniger äussern, gehört für mich unbedingt auch noch spezifisch erwähnt.]

Im zweiten Drittel präsentierte Judith Möller Ergebnisse ihres hochaktuellen Forschungsprogramms, zum Beispiel der eben doch nicht so unterschiedliche Diversitätsgrad bei menschlichen vs. algorithmischen Empfehlungen. Ganz wichtig fand ich auch ihren Hinweis auf den fehlenden Zugang von unabhängigen Forschungsteams zu proprietären Plattformdaten. Sébastien Noir stellte seinerseits PEACH vor: ein multifunktionales System, das öffentlichen Medien erlaubt, ihr Onlineangebot besser und personalisiert aufzubereiten, ohne dabei überhaupt auf proprietäre Lösungen angewiesen zu sein. Natürlich wird beiden diese Kurzbeschreibung nicht gerecht. Ich erhebe auch keinerlei Anspruch auf Vollständigkeit, sondern möchte hier einfach meine Sichtweise kurz teilen. Wenn ich jedoch richtig verstanden habe, wird die EMEK/COFEM weitere Unterlagen zum Anlass auf Ihrer Webseite publizieren, was dann sowieso präziser informieren wird, als meine Nacherzählung. (Dasselbe gilt auch für die letzten beiden Präsentationen.)

Abgerundet wurde der Anlass schliesslich durch den Fokus auf Gouvernanz. Natascha Just zeigt die Herausforderungen für das Wettbewerbsrecht im Bereich der Medien auf, wenn klassische Wettbewerbsmetriken die Realität der Daten- und Aufmerksamkeitsökonomie nicht (mehr) ausreichend abbilden und beurteilen können. Zum Schluss unterstrich Wolfgang Schulz, dass medienspezifische Gesetze nach wie vor unentbehrlich sind, diese aber für die neuen Realitäten umsetzbar sein müssen — was eine komplexe Angelegenheit ist, die nicht zuletzt die Möglichkeit neuer Vielfaltsmodelle und die Durchführung von Risikoabschätzungen in Betracht ziehen muss.

Alles in allem wurden im Laufe des Nachmittags zwar viele Fragen aufgeworfen… aber es wurden auch viele Fragen beantwortet. Persönlich habe ich habe mich über den Austausch sehr gefreut und bin gespannt auf die neue Version des Arbeitspapiers der Kommission. Und nach so viel Text, aufgrund ausdrücklicher Nachfrage, hier noch ein wenig Aufheiterung:

Leave a comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.