여성청소년미디어협회 조정문(safedigital@naver.com)
페이스북도 다른 소셜 미디어처럼 페이스북만의 고유한 알고리즘을 활용하여 이용자들의 관심을 끌만한 게시글이나 사진을 나에게 보내줄 뿐만 아니라 친구 혹은 그룹 및 페이지도 추천한다. 그러나 이렇게 추천하는 게시글들이나 친구들이 이용자들의 주목을 받을 수 있을지는 몰라도 자극적이고 선동적 혹은 가짜 뉴스 또는 편향적인 것들로 채워질 수 있다는 비판을 많이 받아 왔다. 이러한 비판을 의식한 페이스북은 2018년 의미있는 사회 소통(Meaningful Social Interaction, MSI)을 증진시키는 방향으로 자사의 추천 알고리즘을 변경하겠다고 선언하였다. 그 결과 페이스북은 기관이나 단체가 홍보용으로 개설한 페이지의 게시물보다는 나에게 의미가 있는 가족이나 친구가 게시한 게시물을 더 많이 보여 줄 것이며, ‘좋아요’ 수가 많은 인기 게시물보다는 댓글이 많이 달린 게시물을 추천하여 친구와의 토론 및 대화를 촉진시킬 것이라고 발표하였다[1]. 하지만 이런 활동기반의 알고리즘(engagement based algorithm)에로의 변화가 양질의 좋은 콘텐츠를 유통시키기 보다는 소란스러운 콘텐츠만 확산시킬 것이라는 우려는 이미 이런 정책의 변화가 제시되었을 때 지적되었다. 즉 양질의 좋은 콘텐츠라도 댓글이 달리지 않으면 낮은 우선순위가 배정되며 의미없는 콘텐츠라도 댓글만 많이 달리면 적극 추천될 수 있다. 그리고 허위 혹은 혐오와 같은 유해한 여론을 전파시킬 목적을 가진 집단이 이 알고리즘을 악용한다면 허위 및 혐오 표현의 확산을 막을 방법이 없다.
<무엇이 문제인가>
페이스북 알고리즘의 문제점은 21년 10월 전직 페이스북 직원인 프란시스 하우건(Frances Haugen)의 내부 고발에 의해 다시 불거졌다. 이전에도 페이스북 직원에 의한 내부 고발은 있었지만 이번에는 페이스북의 문제점을 지적한 방대한 양의 내부 문건을 공개하여 그 파장이 크다. 이 이슈는 2021년 9월 Wall Street Journal에 페이스북 파일이라는 제목으로 내부 문건을 폭로한 후 여러 언론에서 다루고 있다. 그리고 하우건은 변호사를 통해서 정부 당국(Securities and Exchange Commission, SEC)에 페이스북을 고발하는 내부고발 진정서도 제출한 상태이다. 이 내부고발 진정서에는 다음과 같은 8개 조항 - 1) 페이스북은 청소년 특히 10대 소녀들에게 유해함, 2) 트럼프 지지자의 21년 1월 6일 의회 공격에 대한 부적절한 대응 및 책임, 3) 인종 갈등 및 비 영어권에 대한 홀대에 페이스북의 책임, 4) 유명 인사에 대한 특별 대우, 5) 활동 기반 알고리즘으로 인한 허위 정보 및 혐오 표현 확산에의 기여, 6) 인신 매매에 대한 방조, 7) 페이스북 이용자 수 부풀리기, 8)혐오 표현 삭제에 대한 과장된 홍보 - 이 명기되어 있다. 미국에서는 2008년 금융위기 이후 기업들의 잘못된 행동으로 인한 투자자의 경제적 손실을 보호하기 위하여 Dodd-Frank Act를 제정하였다. 이 법은 기업에게 허위 정보 공시 및 투자와 관련된 정보를 감추는 행위를 금하고 있으며 또한 유의미한 내부고발자에게는 포상금을 지급할 뿐만 아니라 내부 고발자에 대한 보복을 금하고 있다. 따라서 이 법에 따라 향후 페이스북이 고의적으로 투자자를 속이는 거짓 행위를 했는지에 대한 심사가 이루어질 예정이다.
앞서 지적한 것처럼 활동기반의 알고리즘은 페이스북의 외부 공언과는 달리 혐오 및 극단적 표현 혹은 가짜 뉴스의 확산에 기여한다는 것을 이미 내부적으로 알고 있었다고 하우젠은 주장한다.
페이스북은 2019년 인도에서 페이스북 알고리즘이 가짜뉴스와 선동적 이미지의 확산에 기여하는지를 실험하였다. 이 실험을 위해 인도 하이드라바드(Hyderabad) 출신이며 자이퍼(Jaipur)라는 서부 인도 도시에 사는 21세 여성이라는 인위적 계정을 만들고 이 계정은 오로지 페이스북이 추천하는 페이지나 그룹만 팔로워하고 이를 통해 연결된 사람들과만 소통하였다. 2월 4일 계정이 만들어졌을 때는 빈 공간이었으나 2월 11일부터 소셜 네트워크에서 인기있는 게시글을 포함하여 페이스북이 추천하는 콘텐츠를 보기 시작했으며 인도 수상실의 공식 사이트 혹은 BBC 인도와 같은 사이트도 보기 시작했다. 그러다 2월 14일 정치적으로 민감한 지역인 카시미르(Kashmir) 주의 풀와마(Pulwama)에서 테러 공격으로 인도 안전요인 40명이 죽고 수십 명이 부상을 입는 사건이 발생하였고 인도 정부는 이것을 파키스탄 테러리스트 소행이라고 지목하게 된다. 그 후 곧 실험 용 계정은 파키스탄인을 참수하는 이미지나 파키스탄인을 불태우기 위해 준비하는 모습을 보여주는 사진을 포함하여 반 파키스탄 혐오 글들로 채워지게 되었다. 여기 게시된 많은 글과 이미지는 거짓 주장이거나 조작된 사진이었음에도 불구하고 페이스북의 추천 메커니즘을 통해서 급속도로 확산된 것이다. 이런 허위 기사들을 만들어 유포하는 단체나 사람들은 영어와 인도어를 섞어서 사용하여 페이스북의 인공지능 혹은 검열관에 의한 검열을 쉽게 피할 수 있었다. 페이스북은 이런 실험 결과를 통해서 자신의 추천 시스템에 의해 극단적이고 자극적 콘텐츠, 혐오 표현 및 허위정보가 급속도로 확산될 수 있다는 것을 알고 있었던 것이다.
이와 유사한 실험이 2019년 여름 미국에서도 진행되었는데 노스 캐롤라이나 거주하는 정치적으로 보수주의인 실험용 여성 계정을 만들어 정치, 자녀양육, 그리고 기독교에 관심을 표명하게 하고 폭스 뉴스와 도널드 트럼프 등을 팔로워하게 하였다고 한다. 그 결과 스스로 음모이론에 관심이 있다고 표명하지 않았음에도 불구하고 계정 개설 이틀만에 트럼프가 소아성애 환자와 악마숭배자로부터 세상을 구해줄 구세주라는 음모이론을 확산시키고 있는 단체인 Qanon(큐어넌)에 참여하라는 추천을 받았다고 한다.
하우건이 공개한 내부 문서에 의하면 활동기반의 추천 알고리즘보다 더 우려스러운 것은 무한 반복의 재공유(deep reshares)라고 한다. 페이스북에서는 친구가 직접 작성하지 않고 공유한 글도 나에게 추천되며 나 또한 이를 나의 친구에게 공유할 수 있어 무한 공유가 가능하다. 하지만 페이스북의 2020년 연구에 의하면 여러 번 공유된 사진이나 링크는 다른 일반적인 사진과 링크보다 4배 더 허위 정보일 가능성이 있다고 한다. 그리고 2019년 작성된 또 다른 내부 보고서는 반복적 무한공유를 금지하는 것은 활동기반의 추천 알고리즘을 차단하는 것보다 2배 이미지 기반의 허위정보를 차단하는 데 효과적이라는 실험 결과를 소개하고 있다고 한다.
허위 및 혐오 표현의 확산이 페이스북의 추천 알고리즘과 무한 공유의 허용과 같은 콘텐츠 관리 정책 탓임에도 불구하고 페이스북은 인공지능을 활용한 허위 및 혐오 표현의 탐지와 삭제를 통해서 이를 해결할 수 있다고 공헌하고 있다. 그래서 페이스북이 발표한 자체 보고서에 의하면 2020년 4/4분기 동안에 혐오 표현의 97%가 콘텐츠 검열관이 탐지하기 전에 인공지능 시스템에 의해 탐지되었다고 공언하지만 2020년 4월의 내부 문건에 의하면 페이스북에 의한 삭제는 적나라한 폭력의 19%, 신체 노출 및 포르노의 17%, 혐오 표현은 단 1%만 감소시켰다고 지적하면서 인공지능에의 의존이 실제로는 큰 효과를 못 거두고 있다고 인정하고 있다. 이러한 사실에도 불구하고 페이스북은 인공지능 시스템에 의한 콘텐츠 정화가 성공적이라고 과장하고 있다는 것이다.
그럼 이런 문제를 극복할 수 있는 대안은 있는가? 대안으로 다음 4가지 – 1)특정 소수 계정의 과도한 활동을 제한한다, 2)활동기반의 추천 알고리즘을 최신 문서 나열 방식으로 대체한다, 3) 과도한 공유를 제한한다, 4)게시물 혹은 계정의 진실성을 평가할 수 있는 시스템을 구축한다 –를 제안할 수 있다.
<대안은 무엇인가?>
1) 특정 소수 계정의 과도한 활동을 제한한다
미국 뉴스 매체인 버즈피드 뉴스(BuzzFeed News)가 입수한 페이스북의 내부 문건에 의하면 2020년 미국 대선 선거결과가 조작되었다고 주장하는 극우 보수단체인 ‘도적질을 멈추어라(Stop the Steal)’의 경우 슈퍼 초대자로 분류되는 137명이 이 단체 페이스북 회원의 67%를 초대하였다고 한다. 이는 이들이 각각 500명 이상을 초대한 것을 의미하며 이들은 조직적으로 서로 긴밀히 정보를 주고 받으며 자신의 위치를 숨기면서 사적 통신망을 이용하여 작업하였다고 한다. 이들이 하는 활동은 특정 브랜드나 사업체의 인기를 높이기 위해서 수행되는 ‘성장을 위한 해킹(growth hacking)’ 과 유사한 것이다. 물론 성장을 위한 해킹 전략이 언제나 나쁜 결과만을 초래하는 것은 아니며 민주주의 확산 혹은 인권보호를 위한 운동 등에도 사용될 수 있다. 하지만 소셜미디어에서 특정 소수 계정의 과도한 활동에 의해 허위 정보 및 극단적 혐오 표현의 확산이 초래하고 있는 것이 현실이다. 따라서 과도한 활동을 하는 계정에 대한 적극적인 모니터링이 필요하며 필요한 경우에는 한 사람이 초대할 수 있는 초대자수 혹은 초대 요청 수락건수를 제한하거나 한 사람이 개설할 수 있는 계정 수 혹은 한 계정이 남길 수 있는 댓글 횟수를 제한 할 필요도 있을 것이다.
2) 활동기반의 추천 알고리즘을 최신 문서 나열 방식으로 대체한다
페이스북의 문제점을 폭로한 하우건은 스스로는 페이스북을 이용할 때 활동기반 추천 알고리즘을 적용하지 않고 친구가 게시한 게시물들을 시간 순서대로 보여주는 방식을 사용한다고 한다. 많은 사람들이 모르고 있겠지만 페이스북에도 추천 알고리즘을 적용하지 않고 친구가 게시한 게시물을 시간 순서대로 볼 수 있는 기능이 있다. 아래 그림과 같이 페이스북의 왼쪽 페널에 있는 ‘최신글’ 메뉴를 클릭하면 최신순으로 게시물들이 보여지며 ‘인기 게시물로 돌아가기’를 누르면 다시 페이스북의 알고리즘이 추천한 글들이 순서대로 보여지게 된다. 이렇게 ‘최신글’ 메뉴를 활용하면 댓글이 많은 소란스러운 게시물만 보지 않고 모든 게시물을 시간 순서대로 차분히 볼 수 있으며, 특정 친구나 집단의 게시물이 보고 싶으면 해당 친구나 집단을 방문하여 게시물을 볼 수 있다. 현재 페이스북은 알고리즘에 의한 추천 방식을 기본 설정으로 하고 최신 순으로 보려면 메뉴를 찾아 적용하여야 한다. 하지만 반대로 페이스북이 최신 순으로 게시물을 보는 방식을 기본 설정으로 채택한다면 이용자들에게 소란스러운 게시물에 현혹되지 않고 조금은 수고스럽더라도 차분히 자신이 원하는 게시물을 찾아서 보게 하는 습관을 길러 줄 수 있을 것이다.
3) 과도한 공유를 제한한다
앞서 지적하였듯이 여러 사람에 의해 많이 공유되는 사진이나 링크가 허위 정보 혹은 극단적인 혐오표현일 가능성이 더 높다. 이런 사실은 고급의 양질의 콘텐츠보다는 선동적이고 폭력적인 혐오 표현이나 허위 정보들이 자극적이어서 더 주목을 받고 그래서 더 많이 공유됨을 의미한다. 이러한 문제를 해결하기 위해서는 여러 사람에 의해 과도하게 공유되는 게시물에 대하여는 적극적인 모니터링이 필요할 뿐만 아니라 과도한 공유를 막는 방법 -예를 들어 한 게시물이 공유되는 회수를 제한하거나 과도하게 공유되고 있는 게시물을 공유하려고 할 경우에는 공유 여부를 다시 한번 더 생각하게 방안 등을 생각할 수 있다. 어떤 이용자들은 남의 게시글을 자세히 읽어 보지도 않고 제목만 보고 공유하기도 한다. 이런 문제를 해결하기 위해 트위터는 이미 2020년부터 게시물을 읽어 보지도 않고 공유하려고 할 경우에는 ‘내용물을 읽어 보지도 않고 공유를 할 경우에는 의도치 않은 내용을 공유하는 일이 초래될 수 있습니다’와 같은 경고 문구를 보내어 공유하기 전 해당 문서를 읽어 보게 한다고 한다. 그리고 페이스북도 21년 5월 트위터에 공개한 글에서 읽어 보지 않는 게시글을 공유하려고 할 경우에는 게시글을 열어서 읽어 보라고 권하는 문구를 보여주는 기능을 추가할 예정이라고 한다. 물론 이와 같은 기능을 도입하더라도 허위 및 혐오 정보를 악의적으로 확산하려는 시도를 완전히 차단할 수는 없겠지만 무심코 혹은 의도치 않게 허위 및 혐오 정보를 확산하는 것은 어느정도 막을 수 있을 것이다.
4) 게시물 혹은 계정의 진실성을 평가할 수 있는 시스템을 구축한다
게시물 혹은 계정의 진실성을 어떻게 평가할 수 있을 것인가? 아무리 훌륭한 인공지능이라도 게시물의 내용물을 일일이 분석하는 방법으로는 진실성을 평가할 수는 없다. 그래서 많은 전문가들은 내용물을 분석하는 방법이 아니라 진실성이 높은 게시물에서 드러나는 어떤 패턴 혹은 특징을 도출하고 이를 통해서 게시물의 진실성을 평가하는 非콘텐츠(contents-agnostic) 방법론을 강조한다. 구글의 페이지 점수(PageRank) 알고리즘도 이런 非콘텐츠 방법론의 하나라고 볼 수 있다.
구글은 검색 결과를 보여 줄 때 페이지 점수(PageRank)라는 알고리즘을 활용하여 최적의 사이트를 추천한다. 페이지 점수는 해당 사이트가 얼마나 많이 다른 사이트에 의해서 인용되는가 그리고 얼마나 양질의 사이트에서 인용되는가를 고려하여 매겨진다. 이는 다른 사이트에 의해 많이 인용되는 사이트가 그렇지 않은 사이트보다 양질의 신뢰도가 높은 사이트라는 가정에 근거한다. 그래서 구글은 페이지에 담긴 내용물을 분석하여 신뢰도를 평가하지 않고 다른 사이트에 의해 인용되는 횟수 그리고 양질의 사이트(다른 사이트에 의해서 인용이 많이 되는 사이트)에 의해 인용되는 회수 등을 따져서 신뢰도를 평가한다. 물론 이 방식에 의해 추천되는 사이트라고 모두가 양질의 사이트가 아닐 수도 있다. 그리고 최근에 개설되어 상대적으로 인용 횟수가 낮은 사이트 혹은 위키디피아처럼 내부에 수 많은 인용을 포함하고 있는 사이트는 상대적으로 낮게 평가될 수 있다. 이와 같은 한계가 있음에도 불구하고 이 알고리즘은 신뢰도가 높은 사이트를 선별하는 유용한 알고리즘을 많이 활용되고 있다.
MIT Technology Review 가 페이스북 내부직원으부터 입수한 2019년 10월 작성된 내부 보고서 분석에 의하면 페이스북도 구글의 페이지 점수 부여 알고리즘과 유사한 시스템을 개발했었고 이를 적용했었더라면 페이스북에서 악의적 허위 정보를 유포하는 단체들의 활동을 사전에 많이 차단할 수 있을 것이라고 지적하고 있다고 한다.
이상에서 4가지 대안을 지적하였지만 이것만이 전부는 아니며 더 많은 대안이 찾아 질 수 있을 것이다. 그리고 페이스북만이 추천 알고리즘을 활용하지는 않으며 소셜 미디어와 검색 서비스뿐만 아니라 동영상 시청 사이트, 온라인 상거래 기업 등 모든 온라인 활동 기업들은 추천 알고리즘을 활용한다. 따라서 이제는 알고리즘에 대한 문제 제기 차원을 넘어서 알고리즘의 실제 작동 원리에 대한 심도 있는 탐구와 함께 문제 있는 알고리즘을 대체할 수 있는 새로운 알고리즘 혹은 방안 제시도 함께 이루어져야 할 것이다.
[1] 2009년 도입된 페이스북의 ‘좋아요’ 버튼은 페이스북의 인기를 높이고 이용자를 불러 모으는 데는 기여하였다. 하지만 지나친 ‘좋아요’ 경쟁은 이용자의 피곤 혹은 좌절을 초래하였을 뿐만 아니라 ‘좋아요’를 받기 위한 엽기적 게시물의 범람 혹은 유명인사들이 인위적인 ‘좋아요’ 수 조작 등의 사회문제를 야기하기도 하였다. 그 결과 ‘좋아요’ 없는 소셜미디어가 등장하기도 하였고 페이스북도 ‘좋아요’ 기능을 없애는 실험을 하기도 하였다.
'디지털 매체의 생산적 이용 > 소셜 미디어 리터러시' 카테고리의 다른 글
카카오톡 메신저 몰래 읽는 방법 (0) | 2019.03.11 |
---|