About the Book Amazon, Apple, Facebook and Google are the four most influential companies on the planet. Just about everyone thinks they know how they got there. Just about everyone is wrong



Download 9,56 Mb.
Pdf ko'rish
bet60/148
Sana01.01.2022
Hajmi9,56 Mb.
#304632
1   ...   56   57   58   59   60   61   62   63   ...   148
Bog'liq
The Four The Hidden DNA of Amazon

Platform
How  can  Facebook  exert  some  form  of  editorial  control?  A  good  place  to
start  is  with  hate  crimes.  It’s  easy  to  be  on  the  right  side  of  that  one.  And
numerically,  the  number  of  people  who  want  to  commit  hate  crimes  is  not
that  high.  Facebook  will  raise  its  hand  and  say,  “No  more  hate  postings!”
This  way,  similar  to  the  rest  of  the  Four,  company  executives  can  wrap
themselves  in  a  progressive  blanket  to  mask  rapacious,  conservative,  tax-
avoiding,  and  job-destroying  behavior  that  feels  more  Darwin  than
(Elizabeth) Warren.
Fake  news  stories  are  a  far  greater  threat  to  our  democracy  than  a  few
whack  jobs  wearing  white  hoods.  But  fake  stories  are  part  of  a  thriving
business. Getting rid of them would force Facebook to accept responsibility
as the editor of the world’s most (or second most) influential media company.
It would have to start making judgments between truth and lies. That would
spark  outrage  and  suspicion—the  same  kind  that  mainstream  media  faces.
More  important,  by  trashing  fake  stories,  Facebook  would  also  sacrifice
billions of clicks and loads of revenue.
Facebook  attempts  to  skirt  criticism  of  its  content  by  claiming  it’s 
not
  a
media outlet, but a 
platform.
  This  sounds  reasonable  until  you  consider  that
the  term 
platform
  was  never  meant  to  absolve  companies  from  taking
responsibility for the damage they do. What if McDonald’s, after discovering
that  80  percent  of  their  beef  was  fake  and  making  us  sick,  proclaimed  they
couldn’t be held responsible, as they aren’t a fast-food restaurant but a fast-
food platform? Would we tolerate that?
A Facebook spokesperson, in the face of the controversy, said, “We cannot
become  arbiters  of  truth  ourselves.”
35
  Well,  you  sure  as  hell  can  try.  If
Facebook is by far the largest social networking site, reaching 67 percent of
U.S.  adults,
36
  and  if  more  us,  each  day,  are  getting  our  news  from  it,  then
Facebook  has  become,  de  facto,  the  largest  news  media  firm  in  the  world.
The question is, does news media have a greater responsibility to pursue, and
police, the truth? Isn’t that the point of news media?


As the backlash continued, Facebook introduced tools to help combat fake
news.  Users  can  now  flag  a  story  as  fake,  and  it  will  be  sent  to  a  fact-
checking  service.  In  addition,  Facebook  is  using  software  to  identify
potentially fake news.
37
 However, with both of those methods, even if false,
at  most  the  story  is  only  labeled  “disputed.”  Given  the  polarization  of  our
political  climate  and  the  “backfire  effect”—where  if  you  present  someone
with evidence against their beliefs, they double down on their convictions—a
“disputed” label won’t persuade a lot of people. It’s easier to fool people than
to convince them they’ve been fooled.
We tend to think of social media as neutral—they’re just serving us stuff.
We  are  autonomous,  thinking  individuals  and  can  discern  truth  from
falsehood.  We  can  choose  what  to  believe  or  not.  We  can  choose  how  to
interact.  But  research  shows  that  what  we  click  is  driven  by  deeply
subconscious processes. Physiologist Benjamin Libet used EEG to show that
activity in the brain’s motor cortex can be detected 300 milliseconds before a
person  feels  they  have  decided  to  move.
38
  We  click  on  impulse  rather  than
forethought.  We  are  driven  by  deep  subconscious  needs  for  belonging,
approval,  and  safety.  Facebook  exploits  those  needs  and  gets  us  to  spend
more time on the platform (its core success metric is time on site) by giving
us  plenty  of  Likes.  It  sends  notifications,  interrupting  your  work  or  your
home  life  with  the  urgency  that  someone  has  liked  your  photo.  When  you
share  an  article  that  fits  your  and  your  friends’  political  views,  you  do  it
expecting  Likes.  The  more  passionate  the  article,  the  more  responses  you’ll
get.
Tristan Harris, former Google design ethicist and expert in how technology
hijacks our psychological vulnerabilities, compares social media notifications
to slot machines.
39
 They both deliver variable rewards: you’re curious, will I
have  two  Likes  or  two  hundred?  You  click  the  app  icon  and  wait  for  the
wheels  to  turn—a  second,  two,  three,  piquing  your  anticipation  only  makes
the  reward  sweeter:  you  have  nineteen  Likes.  Will  it  be  more  in  an  hour?
You’ll have to check to find out. And while you’re there, here are these fake
news  stories  that  bots  have  been  littering  the  information  space  with.  Feel
free  to  share  them  with  your  friends,  even  if  you  haven’t  read  them—you
know you’ll get your tribe’s approval by sharing more of what they already
believe.
The firm is being careful not to inject humans (gasp!) or any real judgment
into the process. It claims that’s an effort to preserve impartiality—the same


reason  it  gave  when  it  fired  the  entire  Trends  editorial  team.  To  involve
humans  would  supposedly  bring  on  implicit  and  explicit  biases.  But  AI  has
biases  as  well.  It’s  programmed,  by  humans,  to  select  the  most  clickable
content.  Its  priorities  are  clicks,  numbers,  time  on  site.  AI  is  incapable  of
distinguishing  fake  news,  only  at  best  to  suspect  it,  based  on  origin.  Only
human fact checkers can ascertain if a story is fake or not, and how high on
the scale of credibility.
A  digital  space  needs  rules.  Facebook  already  has  rules—it  famously
deleted the iconic image from the Vietnam War of a naked girl running away
from  her  burning  village.  It  also  deleted  a  post  by  the  Norwegian  prime
minister  critical  of  Facebook’s  actions.  A  human  editor  would  have
recognized the image as the iconic war photo. The AI did not.
There’s  a  bigger,  if  unpublicized,  reason  Facebook  as  of  yet  refuses  to
bring  back  human  editors—it  would  introduce  cost.  Why  do  something  the
users can do themselves? You get to hide behind freedom of speech, even if
you have a crowded theater and someone yells “Fire!” Fear and outrage? All
the  better.  Facebook  has  good  reason  not  to  see  itself  as  a  media  company.
It’s  too  much  work  and  would  introduce  friction  to  growth.  And  that’s
something the Four don’t do.

Download 9,56 Mb.

Do'stlaringiz bilan baham:
1   ...   56   57   58   59   60   61   62   63   ...   148




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©hozir.org 2024
ma'muriyatiga murojaat qiling

kiriting | ro'yxatdan o'tish
    Bosh sahifa
юртда тантана
Боғда битган
Бугун юртда
Эшитганлар жилманглар
Эшитмадим деманглар
битган бодомлар
Yangiariq tumani
qitish marakazi
Raqamli texnologiyalar
ilishida muhokamadan
tasdiqqa tavsiya
tavsiya etilgan
iqtisodiyot kafedrasi
steiermarkischen landesregierung
asarlaringizni yuboring
o'zingizning asarlaringizni
Iltimos faqat
faqat o'zingizning
steierm rkischen
landesregierung fachabteilung
rkischen landesregierung
hamshira loyihasi
loyihasi mavsum
faolyatining oqibatlari
asosiy adabiyotlar
fakulteti ahborot
ahborot havfsizligi
havfsizligi kafedrasi
fanidan bo’yicha
fakulteti iqtisodiyot
boshqaruv fakulteti
chiqarishda boshqaruv
ishlab chiqarishda
iqtisodiyot fakultet
multiservis tarmoqlari
fanidan asosiy
Uzbek fanidan
mavzulari potok
asosidagi multiservis
'aliyyil a'ziym
billahil 'aliyyil
illaa billahil
quvvata illaa
falah' deganida
Kompyuter savodxonligi
bo’yicha mustaqil
'alal falah'
Hayya 'alal
'alas soloh
Hayya 'alas
mavsum boyicha


yuklab olish