Liveblog von der #DigiDem17: Auswirkung von Algorithmen auf Meinungsbildung

Von 0 No tags

Da sind wir wieder. Heute werden wir, wie schon im letzten Jahr, von der #DigiDem17 in Dresden live bloggen. Wer nicht vor Ort sein kann, hat die Möglichkeit, die Beiträge von Wissenschaftlern und Praktikern an dieser Stelle zu verfolgen.

Thema heute und morgen: wie verändern Facebook, Google und Co. - und vor allem deren Algorithmen - unsere Demokratie. Weitere Infos und das Programm finden Sie hier auf den Seiten des Instituts für Kommunikationswissenschaft der TU Dresden.

Über den Tag werden wir unsere Eindrücke von der Veranstaltung weitergeben. Einzelne Beiträge werden als Livestream bei Facebook zu sehen sein.

Und nun viel Spaß! Heute für Sie an den Tasten: Rosalie Stephan & Ben Kutz.

9.12 Uhr Gerade ging's los. Prof. Hagen eröffnet das diesjährige Symposium. "Mittlerweile nehmen Computer geistige Verarbeitungsschritte vor, wie wir es bisher nur von Menschen kennen", leitet er ein. Grund genug also, sich nach wie vor mit der Digitalisierung zu beschäftigen.

9.18 Uhr Wie jedes Jahr sollen Bereiche aus der Wissenschaft und der Praxis sprechen. "Die drei großen Projekte dieser Brache sind heute hier vertreten", sagt Prof. Hagen.

Prof. Hagen bei der Eröffnung

9.21 Uhr Prof. Hagen weist noch einmal auf unseren Liveblog hin. Wenn Sie also erst durch diese Werbung hier gelandet sind - herzlich willkommen ;-)

Christian Stöcker: “Ich mag den Begriff Fake-News nicht.“

9.22 Uhr "Der Ring ist Ihrer", sagt Prof Hagen zu Christian Stöcker. Er hält die erste Keynote des Tages. Er ist nicht nur Professor, sondern auch Leiter des Netzressorts bei SPIEGEL ONLINE. Thema: "Was wir wirklich über Filterblasen, Fake-News und digitale Öffentlichkeit wissen".

9.25 Uhr Worauf achtet Facebook eigentlich so? Wie entscheidet Facebook also, was für die User interessant sind? Die Anwendung achtet nicht nur darauf, was die User geliked oder geteilt haben. Sogar die Scroll-Geschwindigkeit  wird gemessen. Verweilen Sie nur mit dem Auge etwas länger auf einem Post, registriert Facebook dies.

9.30 Uhr "Ich mag den Begriff Fake-News ja eigentlich gar nicht. Spätestens seit Donald Trump ihn verwendet, ist er für einen zivilisierten Dialog wertlos geworden."

9.33 Uhr Und trotzdem: Fake-News (was ist denn der bessere Begriff?) haben bei Facebook meist eine viel höhere Interaktionsrate als klassische Nachrichten.

9.36 Uhr Um "Manipulationen" durch soziale Netzwerke zu verstehen, muss man sich die sozialen Verzerrungen anschaut. Wir rücken zum Beispiel ungern von unseren so definierten Wahrheiten ab. Außerdem glauben wir Dinge eher, je öfter wie sie hören.

9.41 Uhr "Bots sind dafür optimiert, scheinbare Reichweite zu erreichen". Gerade bei Twitter sei dies entscheidend. "Bei Facebook passiert das zwar auch, aber da ist es viel schwerer nachzuweisen".

9.45 Uhr Filterblasen? Wohl nicht das Lieblings-Thema von Facebook. "Irgendwas gibt es da wohl", sagt der Facebook-Forscher. Aber so groß, wie das Thema ist, möchte Facebook das Thema nicht machen.

9.48 Uhr "Es gibt schon Filterblasen auf Facebook. Aber eher für Leute, die schon ganz weit draußen sind." Je gemäßigter die eigene Meinung also ist, desto weniger anfällig sind User für Filterblasen.

Prof. Dr. Birgit Stark: „Facebook dient selten als Hauptquelle.“

9.50 Uhr Damit schließt Stöckel seine Keynote. Direkt geht es weiter mit Prof. Dr. Birgit Stark. Ihr Thema. "Facebook – das A und O für unsere politische Meinungsbildung? Zu den Wirkungspotentialen sozialer Netzwerke".

9.55 Uhr "Bei der Meinungsbildung spielen die Medien eine herausragende Rolle". Aber natürlich sei auch das persönliche Umfeld und die Persönlichkeit wichtig. Manche Menschen äußern ihre Meinung lieber als andere. Durch das Internet wird das alles noch ein bisschen komplizierter. Das Meinungsklima wird nicht mehr durch Inhalte beeinflusst, sondern nur durch Likes, Shares und Kommentare.

10.01 Uhr Eine Studie der Uni Mainz stellte sich unter anderem die Frage, wie stark Facebook Themen setzt. Außerdem ist wichtig, wie sich die Bereitschaft auf Facebook verändert, seine Meinung zu nennen.

10.04 Uhr Informieren sich die Deutschen? Überraschung: Die Offline-Medien sind nach wie vor vor dem Internet. 18% gaben an, Facebook als wichtige Informationsquelle zu nutzen. Aber: Als Hauptquelle dient das Medium selten. Außerdem wird Facebook als sehr unzuverlässige Informationsquelle wahrgenommen.

10.09 Uhr Zu welchen Themen ist Facebook eine wichtige Informationsquelle, zu welchen eher nicht? Die Themen Flüchtlinge und AfD standen bei der Liste ganz oben...

10.13 Uhr Facebook erhöht die Artikulationsbereitschaft Vieler. Außerdem: Das Meinungsklima wird das Facebook oft so wahrgenommen, als würde die eigene Meinung vorherrschen.

10.16 Uhr "Die Aufmerksamkeitssteuerung klassischer Medien verstärkt Effekte auf sozialen Netzwerken immer noch. Da kann ein Kommentar leider oft noch stärker gepuscht werden."

10.17 Uhr Die Studie resümiert: "Unser Informationsrepertoire ist noch sehr breit." Aber die Vorrausetzungen für Polarisierungen seien trotzdem gegeben.

10.18 Uhr Jetzt ist erstmal Kaffeepause. Bis gleich!

DigiDem17 Schweiger

Prof. Schweiger mit aktuellen Befunden zur Nutzung von algorithmisch personalisierter Nachrichten

Panel 1

10.38 Uhr Jetzt startet das erste Panel mit Raum für Diskussion. Es beginnt Wolfgang Schweiger zur "Nutzung algorithmisch personalisierter Nachrichten".

10.42 Uhr "Was sind das für Personengruppen, die besonders anfällig sind für algorithmisch personalisierte Nachrichten?" Diese Frage möchte die Studie von der Uni Hohenheim unter anderem beantworten.

10.54 Uhr Bei der täglichen Nachrichtennutzung überwiegen die Offline- gegenüber den Online-Medien. Schweiger weiter: "Man sieht schon sehr deutlich Altersunterschiede. Die Jüngeren nutzen diese Nachrichten häufiger. Das überrascht uns nicht." Zudem nutzt die Bildungsmitte diese Angebote.

10.56 Uhr Eine politikbezogene Persönlichkeit kann nicht erklären, wieso algorithmisch personalisierte Nachrichten genutzt werden. "Menschen, die gewissenhaft informiert werden wollen, nutzen APN weniger, offenere Menschen nutzen diese hingegen weniger. Das ist für uns plausibel", erklärt Schweiger.

11:06 Uhr Letzte Frage aus dem Publikum "Was bedeuten die Ergebnisse eigentlich?" Das fragen sich alle, meint Prof. Schweiger darauf. Ob eine durchschnittliche Nutzung von algorithmisch personalisierter Nachrichten durch 25% der Menschen viel oder wenig ist, wird sich erst noch zeigen.

11:11 Uhr Der nächste Beitrag startet demnächst. Wenn die technischen Probleme erfolgreich überwunden sind.

Lisa Merten: "KenFM war mit die meist genannte Medienmarke in unserer Studie"

11:13 Uhr Dank Hilfe aus dem Publikum kann Lisa Merten vom Hans Bredow-Institut jetzt mit dem Thema "Informationsintermediäre und Meinungsbildung: Relevanz, Praktiken und reflektierte Nutzung" beginnen.

11:23 Uhr Verschiedene Realgruppen gaben dem Forschungsteam an, welche Quellen sie nutzen, um sich über gesellschaftlich relevante Ereignisse zu informieren. Spannend.

11:26 Uhr "Am liebsten würde ich Facebook ja los werden, aber alle sind da eben erreichbar." Auch Menschen, die stark auf Datenschutz fokussiert sind, können sich dem nicht entziehen, sagt Lisa Merten. Oft sei das Netzwerk ein Adressbuch-Ersatz.

11:28 Uhr "KenFM war mit die meist genannte Medienmarke in unserer Studie", sagt Merten. Dabei geht ein kurzes Raunen durch den Saal. "Oft steuern Jugendliche nach einer Nachricht direkt YouTube an, um zu schauen, was News-YouTuber wie LeFloid oder KenFM dazu sagen."

11:30 Uhr Die meisten Jugendlichen sahen Suchmaschinen nicht als Informationsquelle an, das sei eher Mittel zum Zweck. "Das war weitestgehend Konsens unter unseren Befragten". Außerdem: Nachrichten-Apps als anderen Quellen wird mehr vertraut als Facebook.

11:32 Uhr Facebook als Kriegsgebiet. "Egal welche Meinung man vertritt, man wird immer attaktiert", stelle eine Befragter fest. Daher gäbe es die Tendenz, sich nicht mehr bei Facebook zu äußern.

11:36 Uhr "Es liken viele Menschen bei Facebook gar nicht bewusst und wenn sie das tun, dann bei Medienseiten." erklärt Prof. Stark auf eine Frage aus dem Publikum.

11:42 Uhr Interessante Befunde liefert die qualitative Studie des Hans Bredow-Instituts allemal. Die methodische Herangehensweise soll morgen noch einmal thematisert werden. Es folgt ein Vortrag von Jakob Ohme, der den Blick nach Dänemark lenkt.

Jakob Ohme zur Meinungspolarisierung im Zuge des Flüchtlingsstromes 2015 in Dänemark

Jacob Ohme: "Viele Leute fürchten den folgenden Shitstorm."

11.45 Uhr Wie haben die sozialen Netzwerke die Meinung über die Flüchtlinge in Dänkemark geprägt? Spezielles Thema, aber spannend, denn die Dänen haben schon länger eine rechspopulistische Partei im Parlament sitzen.

11.48 Uhr Die Online-Mediennutzung liegt in Dänemark deutlich höher als in Deutschland. Damit können die Effekte natürlich stärker wirken als hier zulande. Aber: "So gut ist der Algorithmus nicht." Es wird nicht nur Meinungsverstärkendes präsentiert.

11:52 Uhr "Viele Leute trauen sich gar nicht mehr, sich inhaltlich online zu positionieren, weil sie dem folgenden Shitstorm nicht gewachsen sind." Lupenreine Meinungsfreiheit sieht anders aus...

11:54 Uhr Die Studie hat per App die Mediennutzung der Befragten aufgezeichnet. Täglich wurden die Probanden befragt, somit konnten Offline-, Online- und soziale Medien erfasst werden.

11:56 Uhr Durchatmen beim Referenten. Herr Hagen stellt eine Frage zu den Zahlen, irrt sich jedoch. "Wenn Herr Hagen sowas sagt, dass geht mir die Pumpe!" Aber alles gut, da wurde nur ein Vorzeichen verwechselt...

12:01 Uhr Das Ergebnis von Ohmes Untersuchung: Soziale Medien polarsieren und regen Partizipation an. Polarisierte Meinungen neigen jedoch nicht dazu sich aktiver zu beteiligen.

12:04 Uhr Die Fragen aus dem Publikum richten sich vor allem an die Ergebnisse der Studie. Ohme möchte weitere Untersuchungen zu den offenen Fragen durchführen. Damit verabschieden wir uns in die Mittagspause.

Marcus Ewald erklärt die Grundlagen Künstlicher Intelligenz

Ewald & Rössing: "Wir haben kein gesellschliches Konzept wie wir mit künstlicher Intelligenz umgehen.

13:07 Uhr Weiter geht's mit den Krisenkommunikations-Experten von Ewald & Rössing. Erste Frage der Referenten an das Publikum: "Wer hat schon einmal von Singularität im Zusammenhang mit künstlicher Intelligenz gehört?" Einige Hände gehen hoch.

13:12 Uhr "Neuronale Netzwerke sind Netzwerke, die das menschliche Denken simulieren." Darauf basiert künstliche Intelligenz.

13:18 Uhr Was ist der derzeitige Stand? Künstliche Intelligent hilft unter anderem bei der Krebserkennnung. Das Problem, weswegen die Daten der Referenten aus den USA stammen, und nicht aus Deutschland: Datenschutz.

13:23 Uhr Ewald & Rössing räumen auf mit der Amazon-Lüge. Angezeigte Kaufvorschläge basieren auf KI und stammen nicht von anderen Käufern. Das ist nicht das einzige Beispiel, bei dem uns schon jetzt KI im täglichen Leben begegnet.

13:28 Uhr KI darf den Menschen nicht schädigen, das ist eine Herausforderung für die dahinterliegenden Algorithmen. KI muss unseren Werten entsprechen. Das Beispiel der Referenten: der Wasser holende Besen im Zauberlehrling.

13:34 Uhr "Wir haben kein gesellschliches Konzept wie wir mit künstlicher Intelligenz umgehen. Darauf müssen wir uns vorbereiten", so Torsten Rössing.

13:36 Uhr Laut den Vortragenden sind unsere Konsumentscheidungen bisher die einzige Instanz, die KI eine Referenz bieten. Den Referenten läuft die Zeit davon. Es wird schnell!

13:42 Uhr Noch ein paar schnelle Fragen aus dem Publikum: Kann uns KI wirklich schaden? Hat KI wirklich reale Macht?

13:46Uhr "Eine gute KI würde feststellen, dass es uns nicht gefällt, fremd bestimmt zu werden." Das Schlusswort von Herrn Ewald. Weiter geht es mit dem Regierungssprecher des Saarlands, Thorsten Klein.

Der Regierungssprecher des Saarlandes, Thorsten Klein, zu seiner Dissertation

Thorsten Klein: "Verwaltung nähert sich der veränderten Kommunikation.

13:51 Uhr Wie verändert sich Regierungskommunikaiton in der heutigen Zeit? Mit dieser Frage beschäftigt sich Thorsten Klein in seiner Dissertation. Dafür führt er qualitative Interviews mit anderen Regierungssprechern und Stakeholdern wie Heiko Maas.

Hinweis: Für den nächsten Vortrag versuchen wir einen Livestream via Facebook aufzubauen. Dabei wird Jens Kamionka zum Thema "Künstliche Intelligenz als Begleiter der digitalen Transformation" referieren. Den Link gibt es dann hier im Liveblog.

14:01 Uhr Die Kollegen von Thorsten Klein fordern Medienkontrolle und soziale Medien haben eine ganz unterschiedliche Bedeutung im Alltag der Regierungssprecher. So viel zu den vorläufigen Ergebnissen von Thorsten Klein. Bisher hat er drei Inteviews geführt.

14:07 Uhr Eine Anregung aus dem Publikum für Thorsten Klein: Was sind die Zukunftsvisionen für Regierungskommunikation?

Jens Kamionka: Es ist nur noch eine Frage der Zeit

14.09 Uhr Wir pausieren beim livetickern. Der nächste Vortrag kann im Facebook-Livestream verfolgt werden.

14.32 Uhr Wie befürchtet: Das Netz hat unseren Live-Stream rausgekickt. Den Vortrag kurz zusammengefasst: Jens Kamionka hat eine ganze Reihe praktischer Beispiele vorgestellt, bei denen künstliche Intelligenz schon eine zentrale Rolle spielt. Zum Beispiel einen Kino-Film-Trailer, der komplett von KI erstellt worden ist. Oder ein Auto, dass fahren gelernt hat. Fazit: Ein schöner Gegenpart zu den Dystopien vorangegangener Vorträge.

14.37 Uhr Hinweis aus dem Publikum: Es findet sich bereits bei Youtube ein Film, dessen Drehbuch von künstlicher Intelligenz geschrieben ist. Das Ergebnis sei aber "sehr ernüchternd". Wir haben mal die genannten Suchbegriffe gegooglet - hier geht es zum Youtube-Film.

Christoph Meißelbach: "Echokammern gibt es schon immer"

15:03 Uhr Weiter geht's im Livestream mit dem Dresdner Politikwissenschaftler Christoph Meißelbach. Sein Thema: "Die Zumutung des Pluralismus. Digitale Öffentlichkeit & menschliches Gehirn".  Hoffen wir mal, dass der Stream hält.

15.25 Uhr Christoph Meißelbach: "Wir sind geborene Gruppenwesen. Die neudeutsch genannten Echokammern gibt es schon immer."

15.26 Uhr: "Wenn sie klug sind, können sie ihre Klugheit nicht unbedingt dazu nutzen, die eigenen Vorannahmen zu entkräften." Sinngemäß meint Meißelbach, dass wir unsere Intelligenz eher dazu nutzen, das in unseren Augen richtige Narrativ zu bestätigen.

15.30 Uhr Meißelbach meint, dass die Erkenntnis darüber, dass wir uns sowieso unsere Welt zurechtbiegen, schon hilft. Seine Empfehlungen kann man unserem Live-Stream entnehmen (die Folie war für uns zu schnell vorbei).

Maria Faust: "Weggehen von der Dichotomie"

15.33 Uhr Es folgt ein Vortrag von Maria Faust. Sie vergleicht in ihrer Doktorarbeit die Internetnutzung in China und Deutschland. Titel: "Free West vs. Regulated East? Comparing Internet Censorship and Filter Bubbles in Germany and China."

15.44 Uhr Über die Bedeutung von Zensur bestehen in Deutschland und China unterschiedliche Verständnisse. Aber beim Phänomen der Filterblasen gibt es keinen Unterschied zwischen den Kulturen. Schon diese Bestandsaufnahme  des Ländervergleichs zeigt die Herausforderung von Fausts Arbeit.

15:54 Uhr Das Forschungsprojekt ist noch in der Durchführung. Faust regt die kritische Reflexion des Publikums an.

"Mozilla ist der einzige Browser, der ein Tracking Plug-In erlaubt. ", so Bettermann.

Thomas Bettermann: "Wer getrackt wird, sollte das so wenig wie möglich merken."

16:06 Uhr Jetzt wird's informatisch. Das kündigt zumindest Prof. Hagen an. Wir sind gespannt. Thomas Bettermann ist mit "Mobiles Labor zur digitalen Erfassung politischer Meinungsbildung in algorithmischen Medien" an der Reihe.

16:15 Uhr Das Forschungsteam um Thomas Bettermann hat für den Browser Mozilla Firefox ein Plug-In entwickelt, das die Aktivitäten der Nutzer trackte. Das Plug-in lieferte die Daten für das Forschungsprojekt AlgStrOeff  des IfK. Der Referent erklärt, wie das funktioniert.

16:18 Uhr Über die URL kommt es durch das Plug-In zu einer groben Kategorisierung des Nutzerverhaltens. Trotz des passiven Überwachens besteht aber ein Problem: die Forscher kennen nicht die Handlungsmotive der Nutzer. Da hilft nur Fragen.

16:21 Uhr Mit einem Video zeigt Bettermann wie das Plug-In arbeitet und welche Daten die Forscher dadurch erhalten. Es gibt auch Seiten, die nicht erfasst werden. "Erwachsenen-Seiten" nennt Bettermann als Beispiel. Lacher im Saal sind ihm sicher.

16:28 Uhr Die Frage, was so ein Plug-In kostet, kommt aus dem Publikum. Antwort von Prof. Hagen: "Nichts, außer die Anpassungskosten." Nach Ende des Forschungsprojektes soll die Software zur freien Verfügung gestellt werden.

16:35 Uhr Das Panel verbleibt damit, dass das Tool auch für andere Forschungsbereich sehr wertvoll sein kann. Wir sind erstmal in der Kaffeepause.

Prof. Hagen: "Wir haben uns darauf fokussiert, wie Nachrichtenintermediäre genutzt werden."

17:07 Uhr Von der Ergebnisspräsentation des Forschungsprojektes AlgStrÖff gibt es wieder einen Livestream.

17:19 Uhr Unter den Top 15 der Intermediäre des nicht repräsentativen Teil des Forschungsprojektes finden sich drei Nachrichtenintermediäre. Grund genug für die Forscher anzunehmen, dass Informationen je nachdem über welches Intermediär sie gefunden wurden, unterschiedlich bewertet werden.

17:31 Uhr Es gibt eine hohe Zufälligkeit bei der Auswahl von Intermediären. Außerdem spielen Empfehlungen von Freunden und Bekannten eine deutlich größere Rolle bei der Nutzung als journalistische Kriterien. Weitere Ergebnisse und was diese bedeuten gibt es aktuell im Livestream.

17:56 Uhr Prof. Hagen leitet aus den Ergebnissen der Studie Handlungsempfehlungen ab.  "Es gibt Polarisierung", hält Hagen zunächst fest. "Das beschränkt sich aber auf Menschen die wenig Medienkompetenz aufweisen." Er sieht eine bildungspolitische Aufgabe darin, der Polarisierung entgegenzuwirken. Sowohl innerhalb, als auch außerhalb der Schule braucht es für Lehrer und Schüler mehr Vermittlung von Medienkompetenz.

18:02 Uhr Auch die Intermediäre selbst müssen mehr in die Verantwortung genommen werden. Dazu gehört für Hagen stärkere Kontrolle, Datentransparenz, sowie die Teilhabe der Öffentlich-Rechtlichen an den Sozialen Netzwerken.

18:07 Uhr "Die publizistischen Medien sind in einer schwierigen Position." Hagen rät zu  einer User Oriented Optimization". Es folgen seine Forderungen für Intermediäre. Hier in Kurzform zusammengefasst:
-öffentliche Aufgabe anerkennen
-journalistische Funktion anerkennen
-Freiwillige Selbstkontrolle
-Bewusstsein der Nutzer schärfen
-Kooperation mit der Wissenschaft
-Daten teilen

18:12 Uhr Prof. Hagen schließt mit den Handlungsempfehlungen für die Wissenschaft. Unter anderem sollte sich stärker für eine Interdisziplinarität mit der Informatik eingesetzt werden. Das hat das Forschungsprojekt auf jeden Fall gezeigt.

18:19 Uhr Sind die jungen Nachrichtenintermediäre zu akademisch? Kann damit wirklich Medienkompetenz vermittelt werden? Ein Stimme aus dem Publikum äußert sich zu den eigenen Eindrück von solchen Seiten.

19:00 Uhr In einer Viertelstunde geht der letzte Stream des Tages wie gewohnt bei Facebook online. Die Podiumsdiskussion wird mit etwas Verspätung ab 19:15Uhr starten. An der Podiumsdiskussion werden Prof. Dr. Birgit Stark (Uni Mainz), Dr. Annette Rehfeld-Staudt (Sächsische Landeszentrale für politische Bildung), Prof. Dr. Christian Stöcker und kurzfristig auch Cornelius Pollmer (Lokalkorrespondent Süddeutsche Zeitung) teilnehmen.

19:18 Uhr Der Livestream ist gestartet. Bitte hier entlang.

20:30 Uhr Wir verabschieden uns von der #DigiDem17. Nach einer angeregten Podiumsdiskussion müssen erstmal jegliche Akkus wieder aufgeladen werden. Danke für einen spannenden Veranstaltungstag.

Noch keine Kommentare.

Kommentar hinterlassen

Deine E-Mail-Adresse wird nicht veröffentlicht.