Artwork

Innhold levert av Peder Iblher. Alt podcastinnhold, inkludert episoder, grafikk og podcastbeskrivelser, lastes opp og leveres direkte av Peder Iblher eller deres podcastplattformpartner. Hvis du tror at noen bruker det opphavsrettsbeskyttede verket ditt uten din tillatelse, kan du følge prosessen skissert her https://no.player.fm/legal.
Player FM - Podcast-app
Gå frakoblet med Player FM -appen!

Freedom of Reach – Ein Blick in den Maschinenraum der Social Media

50:42
 
Del
 

Manage episode 366314382 series 3484944
Innhold levert av Peder Iblher. Alt podcastinnhold, inkludert episoder, grafikk og podcastbeskrivelser, lastes opp og leveres direkte av Peder Iblher eller deres podcastplattformpartner. Hvis du tror at noen bruker det opphavsrettsbeskyttede verket ditt uten din tillatelse, kan du følge prosessen skissert her https://no.player.fm/legal.

TRAP 1

Meinungsfreiheit ist kein Recht auf Reichweite. Was wir in den Social Media zu sehen bekommen, entscheiden Algorithmen – und wer über diese entscheidet, hat viel Macht. Peder Iblher will es genauer wissen und spricht darüber mit Dr. Martin Degeling von der Stiftung Neue Verantwortung.

Shownotes

Zwei eigene Beiträge, auf die ich mich beziehe:

• Meine Ausgangsthesen zum TRAP (The Recommendation Algorithm Project)

Betreutes Denken vs. Desinformation – Über die Zukunft der Meinungsfreiheit

Erwähnt wurde auch:

• das Projekt Open Schufa von AlgorithmWatch und der Open Knowledge Foundation

Hinweise von Martin Degeling:

• Zum Polarisierungsproblem: Eine der aktuellsten Studien hat gezeigt, dass es nicht unbedingt ein systhematisches Problem ist, dass man unbedingt auf den Algorithmus zurückführen kann. Die Autor:innen haben eine Radikalisierung vor allem für „right leaning“ accounts gefunden, aber nicht für zentristische oder „linke“.
arxiv.org/abs/2203.10666

• Luke Thorburn schreibt z.B. hier.

• Banks et al., 2020: “#PolarizedFeeds: Three Experiments on Polarization, Framing, and Social Media

• Cho et al., 2020: “Do Search Algorithms Endanger Democracy? An Experimental Investigation of Algorithm Effects on Political Polarization

• Del Vicario et al., 2016: “Echo Chambers: Emotional Contagion and Group Polarization on Facebook

• Ansätze zu Bridge- (also quasi „verbindenden statt skandalisierenden“) Algorithmen:
Das Feld ist noch neu, eine Veröffentlich war da letztens diese hier:
Aviv Ovadya: “Bridging-Based Ranking

• Hier eine Analyse, die anhand bestehender Twitter-Diskussionen zeigt, dass es selten funktioniert wenn man sich widersprechende Positionen einfach zusammensetzt:
David Gunnarsson Lorentzen: “Bridging polarised Twitter discussions: the interactions of the users in the middle

• Zu den im EU-Digital Services Act vertretenen Werten:
Jonathan Stray et al.: “Building Human Values into Recommenderer Systems: An Interdisciplinary Synthesis

• Ein Podcast auf englisch von Experten zum Thema Empfehlungsalgorithmen:
recsperts.com

//

  continue reading

5 episoder

Artwork
iconDel
 
Manage episode 366314382 series 3484944
Innhold levert av Peder Iblher. Alt podcastinnhold, inkludert episoder, grafikk og podcastbeskrivelser, lastes opp og leveres direkte av Peder Iblher eller deres podcastplattformpartner. Hvis du tror at noen bruker det opphavsrettsbeskyttede verket ditt uten din tillatelse, kan du følge prosessen skissert her https://no.player.fm/legal.

TRAP 1

Meinungsfreiheit ist kein Recht auf Reichweite. Was wir in den Social Media zu sehen bekommen, entscheiden Algorithmen – und wer über diese entscheidet, hat viel Macht. Peder Iblher will es genauer wissen und spricht darüber mit Dr. Martin Degeling von der Stiftung Neue Verantwortung.

Shownotes

Zwei eigene Beiträge, auf die ich mich beziehe:

• Meine Ausgangsthesen zum TRAP (The Recommendation Algorithm Project)

Betreutes Denken vs. Desinformation – Über die Zukunft der Meinungsfreiheit

Erwähnt wurde auch:

• das Projekt Open Schufa von AlgorithmWatch und der Open Knowledge Foundation

Hinweise von Martin Degeling:

• Zum Polarisierungsproblem: Eine der aktuellsten Studien hat gezeigt, dass es nicht unbedingt ein systhematisches Problem ist, dass man unbedingt auf den Algorithmus zurückführen kann. Die Autor:innen haben eine Radikalisierung vor allem für „right leaning“ accounts gefunden, aber nicht für zentristische oder „linke“.
arxiv.org/abs/2203.10666

• Luke Thorburn schreibt z.B. hier.

• Banks et al., 2020: “#PolarizedFeeds: Three Experiments on Polarization, Framing, and Social Media

• Cho et al., 2020: “Do Search Algorithms Endanger Democracy? An Experimental Investigation of Algorithm Effects on Political Polarization

• Del Vicario et al., 2016: “Echo Chambers: Emotional Contagion and Group Polarization on Facebook

• Ansätze zu Bridge- (also quasi „verbindenden statt skandalisierenden“) Algorithmen:
Das Feld ist noch neu, eine Veröffentlich war da letztens diese hier:
Aviv Ovadya: “Bridging-Based Ranking

• Hier eine Analyse, die anhand bestehender Twitter-Diskussionen zeigt, dass es selten funktioniert wenn man sich widersprechende Positionen einfach zusammensetzt:
David Gunnarsson Lorentzen: “Bridging polarised Twitter discussions: the interactions of the users in the middle

• Zu den im EU-Digital Services Act vertretenen Werten:
Jonathan Stray et al.: “Building Human Values into Recommenderer Systems: An Interdisciplinary Synthesis

• Ein Podcast auf englisch von Experten zum Thema Empfehlungsalgorithmen:
recsperts.com

//

  continue reading

5 episoder

Tüm bölümler

×
 
Loading …

Velkommen til Player FM!

Player FM scanner netter for høykvalitets podcaster som du kan nyte nå. Det er den beste podcastappen og fungerer på Android, iPhone og internett. Registrer deg for å synkronisere abonnement på flere enheter.

 

Hurtigreferanseguide

Copyright 2024 | Sitemap | Personvern | Vilkår for bruk | | opphavsrett