Facebook ‘Yankı Odası’, İnsanları Daha Dar Görüşlü Yapıyor

Akıllı cihazların yaygın kullanımıyla birlikte sosyal medya hesapları artık günlük rutinimizin parçası oldu.

Anlık olarak arkadaş çevremizle iletişime geçiyor, herhangi bir olay hakkında fikrimizi “arkadaş”larımızla paylaşıyor veya hoşumuza giden iletileri-videoları beğeniyoruz, paylaşıyoruz. Gerçekteki sosyal yaşantımızın paraleli gibi görünse de aslında gerçek sosyalleşme durumundan oldukça uzakta. Pek çoğumuz, Facebook, Twitter ve Google`ın sahip olduğu kişiselleştirme algoritmaları tarafından oluşturulan bir süzgeç kabarcığına[1] hapsolmuş hissediyor gibiyiz (Süzgeç kabarcığı: internet sitelerinin sizin internetteki faaliyetlerinize göre size öneride bulunması).

Boston Üniversitesi ile çeşitli İtalyan kurumlarında bulunan araştırmacılar, bu duruma “yankı odası” adını veriyorlar. Burası, aynı görüşteki insanların tartışmalı kuramları, peşin hükümlü görüşleri ve seçici haberleri paylaştığı bir ağ niteliği taşıyor. Daha sonra bu bilgiler bu kişilere sadece yeniden tekrarlanıyor ve bu kişilerce doğru olarak kabul ediliyor. Yankı odaları belirgin bir şekilde sorunlu; insanlar birbirleriyle ortak noktası az olan dar bir bilgi tabanına sahip olduğu zaman, sosyal müzakereler zarar görüyor.

İnternetin, bilgiyi demokratikleştirme ve küresel bir köy oluşturmayla bu sorunu çözmesi gerekiyordu. Aslında demokratikleştirme gerçekleşti. Facebook ve Twitter`daki sosyal haber kaynakları ve Google`daki algoritmalar, bundan önce haber editörleri tarafından gerçekleştirilen denetmen işlevini yerine getiriyor. Bazı tahminlere göre[2], y kuşağının yüzde 60’ı birincil haber kaynağı olarak Facebook’u kullanıyor. Fakat son zamanlarda pek çok araştırmacı, bu gidişatın küresel bir köy oluşturmak yerine, bizi daha fazla böldüğünü ve demokrasiyi ortadan kaldırdığını söyleyerek[3] endişelerini dile getiriyor.

Facebook CEO`su Mark Zuckerberg, sosyal medyanın demokrasimiz üzerindeki etkisini abarttığımıza inanıyor. Fakat yapılan araştırmalara göre durum böyle değil. Proceedings of the National Academy of Sciences[4] bülteninde yayımlanan bir çalışmada, insanların 2010 ile 2014 yılları arasında sosyal ağ üzerinde tartıştığı konular üzerindeki veriler incelendi. Bilgiler; bilim haberleri, komplo dedikoduları ve trolleme olarak üç gruba ayrıldı.

Araştırmaya göre; kullanıcılar, dünyanın parmak uçlarında olmasına rağmen, kendi görüşleriyle ilgili topluluklar ile bir araya gelmeye yatkınlık gösteriyor ve bu durum onaylama önyargılarını, ayrımcılığı ve kutuplaşmayı besliyor, güçlendiriyor. (onaylama önyargısı = bir fikir hakkında olumlu bir görüş oluşturduktan sonra bu görüşle çelişecek bilgilere değer vermemek) Araştırma ekibi, bu durumun, bilgi kalitesine mal olduğunu ve doğrulanmamış dedikodular, güvensizlik ile paranoya tarafından kışkırtılan ön yargılı hikayelerin çoğalmasına yol açtığını söylüyor.

Araştırma bulgularına göre, kullanıcılar çoğunlukla belirli bir hikayeyle ilgili olan içerikleri seçmeye ve paylaşmaya, geri kalanları ise görmezden gelmeye eğilimliler. Kanıtlanmış veya kanıtlanmamış olsun, bir haber nesnesinin bir kullanıcı tarafından doğru olarak kabul edilip edilmemesi, kullanıcının daha önce edindiği bilgiler ile ne ölçüde tutarlı olduğuna büyük oranda bağlı olabiliyor.

Yani hali hazırda doğru olduğuna inandıkları şeyleri destekleyecek verileri daha çabuk kabul ediyorlar. Araştırma ekibi, küresel ısınma kanıtlarının reddedilmesi gibi belirli olguların yaygın hale gelme sebebinin, bu “yankı odası” olabileceğini belirtiyor. Bilimsel bilginin sıklıkla takip edilebilirken, komplo teorilerinin kökenlerini belirlemenin zor olduğuna dikkat çekiyorlar.

Çalışmada ayrıca, güvenilmez bilginin internet ortamında yayılması konusunun çok ciddi hale geldiği ve bu durumun Dünya Ekonomik Forumu tarafından en büyük sosyal tehditlerden biri olarak sınıflandırıldığı dile getiriliyor. Bill Gates, 2017 yılında Quartz’a verdiği röportajda şöyle diyor: “Sosyal medya gibi teknolojiler, hemfikir insanlar ile tozutmanızı sağlıyor, bu yüzden diğer bakış açılarını karıştırmıyor, paylaşmıyor ve anlamıyorsunuz.

Bu süper önemli bir şey. Bu durumun, benim ve diğer pek çok kişinin tahmin edeceğinden daha fazla sorun teşkil ettiği ortaya çıktı.” Araştırmacılar, 2015 yılında yürüttüğü bir çalışmada[5] sosyal medyanın farklı bakış açılarına maruz kalışımızı nasıl etkilediği üzerine bir çözümleme yaptı.

ABD`de kendi politik düşünce biçimlerini (muhafazakar, ılımlı ve liberal) belirtmiş olan 10.1 milyon etkin Facebook kullanıcısının haber kaynaklarını değerlendirdiler. Araştırmacılar daha sonra bu kullanıcıların haber kaynaklarında bulunan haberlerin ne kadarlık bir kısmının kendi bakış açılarından farklı şekilde paylaşıldığını hesapladılar (örneğin bir liberalin, çoğunlukla muhafazakar bir bakış açısına sahip bir haberi okuması gibi). Facebook gibi bir sosyal ağda, bu tür haberleri görme oranımıza etki eden üç etmen var.

Birincisi, arkadaşlarımızın kim olduğu ve hangi haberleri paylaştıkları; ikincisi, arkadaşlar tarafından paylaşılan tüm haberler arasında, hangilerinin haber kaynağı algoritması tarafından görüntülendiği; ve üçüncüsü, gösterilen haberlerin hangilerine tıkladığımız. Eğer bir yankı odasının başlıca yönlendiricisi ikinci etmen ise, o zaman Facebook bütün suçlamaları hak ediyor.

Buna karşılık, eğer yankı odasından birinci veya ikinci etmen sorumluysa, o halde kendi yankı odalarımızı oluşturmuşuz demektir. Eğer kullanıcı haber ortamını rastgele seçilmiş bir grup Facebook kullanıcısından elde ediyorsa, Facebook üzerinde liberaller tarafından görülen haberlerin yaklaşık %45`i ve muhafazakarlar tarafından görülenlerin %40`ı farklı görüşten olacaktır.

Sonuç olarak araştırmacılar, liberallerin arkadaşlarının paylaştığı haberlerin sadece %24`ünün ve muhafazakarların arkadaşlarının paylaştığı haberlerin yaklaşık %34`ünün farklı görüşte olabileceği sonucuna ulaştılar. Açık bir şekilde, Facebook arkadaşlarınızın aynı görüşte olması, sizi bir yankı odasına hapsediyor. Haber kaynağı algoritması, arkadaşlarınızın hangi haberlerinin size gösterildiğini daha fazla seçiyor.

Bu durum, arkadaşlarınızla olan önceki etkileşiminize dayalı. Benzer görüşte olan arkadaşlarla ve ideolojik olarak benzer internet siteleriyle daha fazla meşgul olmaya yatkın olduğunuzdan, haber kaynağı algoritması farklı görüşteki haber miktarını daha fazla azaltarak, liberaller için %22 ve muhafazakarlar için %34 oranında gösteriyor. Facebook`un algoritması yankı odasını daha beter hale getiriyor, fakat fazla değil.

Son olarak, hangi haberlere tıklanıldığı sorusuna geliyoruz. Araştırmacılar, tıklanan farklı görüşteki haberlerin nihaî oranının, liberaller için %21 ve muhafazakarlar için %30 olduğundan bahsediyor.

Açık bir şekilde, insanların mevcut görüşlerine meydan okumak yerine onları pekiştirmesi muhtemel olan haberlere tıklamayı tercih ediyor. Araştırmacılar, dijital yankı odasını yönlendiren temel şeyin, haber kaynağı algoritmasının bizim adımıza yaptığı seçimlerden ziyade, kullanıcıların faaliyetleri (çevrimiçi olarak kiminle bağlantı kurduğu ve hangi haberlere tıkladığı) olduğu sonucuna varıyorlar.

Facebook araştırmacıları tarafından yürütülen ve şirketin algoritmalarını temize çıkarıp, suçu doğrudan bize atan bir araştırma çalışmasına güvenmeli miyiz? Doğrusu çalışma iyi tasarlanmış. Dahası, bu sonuçlar ile daha önce yapılan araştırmaların sonuçları temel olarak çelişmiyor. Arkadaşlık çemberlerimizin genelde yeterince farklı olmadığı doğru, fakat Facebook bu ağdaki başka bir yerden farklı makaleleri kolaylıkla önerebilir (ör. “Facebook kullanıcıları başka ne okuyor?”gibi).

Haber kaynaklarımızda gösterilen arkadaşlarımızın haberleri, sonuç olarak Facebook`un uyguladığı bir sınırlama. Bu durum, bizim aklandığımız anlamına gelmiyor. Asıl mesele, bizi bir yankı odasına götüren eylemleri kasıtlı olarak seçmemiz.

İlk olarak, sadece aynı görüşte olan insanlarla bağlantı kurarak ve bakış açılarına katılmadığımız insanları “arkadaşlıktan çıkararak”, dar görüşlü dünyalar oluşturuyoruz. İkincisi, haber kaynağı algoritması farklı içerik gösterdiğinde bile, ona tıklamıyoruz. Neden Facebook bizim kullanmadığımız içeriği göstermek mecburiyetinde olsun? Son olarak, Facebook’un yürüttüğü bir ticaret var.

Eğer Facebook’ta sevdiğimiz kaynaklardan haberleri gördüğümüz için memnun gibi görünüyorsak, yankı odası nasıl Facebook’un yükümlülüğü oluyor? Eğer tıklamalarımız ile oylama yapmaya isteksiz isek, Facebook neden kendi ticaretini en iyi duruma getirsin? Bill Bishop, The Big Sort[6] kitabında Amerikalıların son 30 yılda kendilerini nasıl aynı görüşlü muhitlere ayırdıklarını gösteriyor.

Aynısı, internet üzerinde de oluyor gibi görünüyor. Günümüze kadarki bütün deneysel veriler, bu durumun sebebinin tek başına kişiselleştirme algoritmalarının kullanımı olmadığını öne sürüyor. Algoritmalar bizi kolaylıkla çeşitli bakış açılarına maruz bırakabiliyor. Kişiselleştirilme algoritmalarına aktarılan şeyler veriler ve bizim son kullanıcılar olarak gerçekleştirdiğimiz eylemler. Facebook ve Google gibi şirketler daha fazlasını yapmalı. Fakat biz de öyle.

Kaynak&İleri Okuma:

[1]– https://en.wikipedia.org/wiki/Filter_bubble

[2]– http://www.journalism.org/2015/06/01/facebook-top-source-for-political-news-among-millennials/

[3]– “Your Filter Bubble is Destroying Democracy” https://www.wired.com/2016/11/filter-bubble-destroying-democracy/

[4]– Michela Del Vicario, 554–559, DOI: 10.1073/pnas.1517441113

[5]– Science 05 Jun 2015: Vol. 348, Issue 6239, pp. 1130-1132 DOI: 10.1126/science.aaa1160

[6]– http://www.thebigsort.com/home.php — Kartik Hosanagar, “Blame the Echo Chamber on Facebook. But Blame Yourself, Too” — Facebook ‘echo chamber’ makes people more narrow-minded – study https://www.rt.com/news/328177-facebook- narrow-minded- study/

kaynak: Facebook ‘Yankı Odası’, İnsanları Daha Dar Görüşlü Yapıyor  https://bilimfili.com/facebook-yanki-odasi-insanlari-daha-dar-goruslu-yapiyor/