사이버폭력 없는 소셜미디어 어떻게 가능할까?
여성청소년미디어협회 연구소장 조정문
2021년 6월
safedigital@naver.com
사이버폭력으로 인한 피해와 고통에 대한 소식을 수시로 접할 수 있을 정도로 사이버폭력이 일상화되었다. 특히 직업 특성상 기존 질서 혹은 고정관념에 도전하는 작가 및 언론인들이 사이버폭력에 더 많이 노출될 수도 있을 것이다. 작가 혹은 언론인 중에서도 여성, 성 소수자, 유색 혹은 소수 인종 작가 및 언론인들이 더 많이 사이버폭력의 피해자가 된다고 한다. 이런 맥락에서 작가와 언론인의 사이버폭력 피해를 예방하고 대응하기 위하여 미국 문인협회(PEN America)[1]는 2020년 4월부터 2021년 2월까지 관련 전문가 50여명을 인터뷰하고 100여건의 보고서 및 기술서 등을 검토하여 2021년 3월 ‘더 이상 사이버폭력은 안돼 - 사이버폭력 퇴치 및 피해자 지원을 위해 소셜미디어가 당장 해야 할 일(No Excuse for Abuse - What Social Media Companies Can Do Now to Combat Online Harassment and Empower Users)’라는 보고서를 발간하였다. 이 보고서를 통해서 사이버폭력 없는 소셜미디어 구현을 위해서 소셜미디어[2]가 당장 실천해야 할 사항들이 무엇인가를 살펴본다. 여기서 제시된 방안이 문인과 언론인을 보호하기 위한 것이기는 하지만 일반인의 보호에도 그대로 적용될 수 있어 소셜미디어의 사회적 책임을 촉구하는 데는 많은 도움이 될 수 있을 것이다. 이 보고서는 소셜미디어가 할 수 있는 일을 피해자 지원 방안과 가해자 무력화 방안으로 구분하여 설명하고 있다.
I. 피해자 지원 방안
피해자 지원 방안에는 사이버폭력이 발생하기 전 사전에 이를 탐지하거나 예방할 수 있는 사전 예방적 조치와 사이버폭력이 발생한 후 가해자를 차단하거나 신고 또는 피해자에게 도움 제공 등과 같은 사후적 조치가 있을 수 있다.
□ 사전 예방적 조치
1. 안전한 이용 : 프라이버시 및 보안 설정을 더 쉽고 편리하게 해라
문제점 소셜미디어를 통해 수 많은 사람을 접촉하는 작가 및 언론인들은 개인정보의 해킹, 다른 사람으로 위장한 허위계정의 접근 등과 같은 보안 사고뿐만 아니라 소셜미디어에 공개된 자신의 개인정보로 인해서 쉽게 공격의 표적이 될 수가 있다. 이를 방지하기 위해서는 소셜미디어에 공개되는 개인정보와 보안을 엄격하게 설정할 필요가 있다. 하지만 각 소셜미디어마다 설정 방법이 표준화되어 있지 않고 프라이버시 및 보안 설정에 대한 안내가 부족하여 문인들의 대부분은 프라이버시와 보안 설정 방법을 잘 모른다.
제안 소셜미디어는 이용자가 개인정보를 쉽게 관리할 수 있도록 강력하고 직관적이며 사용자 친화적인 프라이버시 및 보안 설정 도구를 제공해야 한다
o 클릭 한번으로 여러 가지 프라이버시 및 보안 설정이 동시에 구현되는 ‘안전 모드’를 제공해야 한다.
- 현재 트위터와 인스타그램은 이와 유사한 기능을 제공하고는 있지만 공개와 비공개 2가지 중에서 하나만 선택만 할 수 있을 뿐 세부 사항별로 조정이 불가능하여 이의 개선이 필요하다.
- 페이스북은 프로필, 스토리, 게시물, 댓글 별로 각각 공개 수준을 별도로 설정하도록 하고 있으나 이것이 초보자들에게는 이것이 매우 불편하고 혼동스럽다. 따라서 클릭 한번으로 모든 것에 적용될 수 있게 하는 설정 방법을 제시해야 한다.
※ 페이스북의 이런 불편을 극복하기 위해 Jumbo(jumboprivacy.com)라는 유료 도구가 개발되었는데 이를 활용하면 클릭 한번으로 공개 수준을 허용, 보통, 엄격의 3가지로 설정할 수 있다.
o 트위터는 2020년 8월부터 댓글 달 수 있는 사람을 1) 누구나, 2) 내가 팔로워하는 사람만, 3) 내가 언급한 사람만으로 지정할 수 있는 기능을 도입하였는데[3] 인스타그램과 페이스북도 이 기능을 검토할 필요가 있다.
o 프라이버시 및 보안 설정에 대한 시각적 정보 제공해야 한다. 프라이버시 및 보안 설정을 변경하게 되면 서비스가 어떻게 달라지는가를 ‘미리보기’와 같은 방식으로 일반인이 이해하기 쉽게 시각적으로 보여주어야 한다.
o 주기적으로 자신의 보안 및 프라이버시 설정을 확인하도록 알림을 제공해야 한다.
o 사업자, 시민단체, 이용자 등이 함께 모여서 현재 각 소셜미디어마다 다르게 사용되고 있는 프라이버시 및 보안 설정 메뉴 혹은 용어를 조정하여 일관된 용어 및 사용자 경험을 구현하기 위해 노력해야 한다.
2. 과거 콘텐츠 관리
문제점 소셜미디어에서 오랫동안 활동을 해온 사람들에게는 소셜미디어에 남아 있는 지우고 싶은 과거의 기록들로 인해 곤란에 처할 경우가 많다. 그래서 과거의 기록들을 편리하게 검색하여 특정 공간에 보관하거나 불필요한 것들은 쉽게 삭제할 수 있게 해주어야한다. 2020년 6월 페이스북은 이용자들이 과거 콘텐츠를 날짜 순 혹은 관련된 사람에 따라서 분류하고 개별적으로 혹은 전체적으로 보관함에 보관하거나 혹은 삭제하는 것을 가능하게 하는 활동 관리(manage activity)라는 기능을 도입하였다. 하지만 트위터나 인스타그램에는 아직 이런 기능이 없다
제안 소셜미디어는 플랫폼 이용자들이 자신의 과거 콘텐츠를 쉽게 관리할 수 있는 통합적이고 강력한 도구를 제공하여야 한다.
o 트위터와 인스타그램은 지난 콘텐츠에 대한 검색 기능을 도입하여 개별적 혹은 묶음으로 비공개 처리, 삭제 혹은 보관 할 수 있는 기능을 제공하여야 한다.
o 페이스북은 기존의 활동 관리 기능을 확장하여 키워드 검색이 가능하게 하여야 한다.
3. 사이버폭력으로부터 피해자를 보호하기 위한 방패와 이의 관리를 위한 대시보드 운영
문제점 악성 게시물 혹은 댓글 혹은 이미지 등이 피해자에게 도달되기 전 사전에 검열되어 차단될 수 있다면 많은 사이버폭력 피해를 줄일 수 있다. 이메일의 경우에는 스팸 관리 도구를 활용하여 어느정도 성공을 거두고 있지만 사이버폭력을 걸러내는 필터링은 아직 초보 단계로서 더 많은 노력을 기울어야 한다[4]. 사이버폭력은 알고리즘만으로는 충분히 걸러낼 수 없어 어느 정도는 인력을 동원한 필터링이 필요하다. 그리고 과도한 필터링은 사생활 검열 및 표현의 자유에 대한 침해 소지가 있을 수 있어 이 문제를 해결하기 위해서는 이용자에게 무엇을 어떻게 차단할 것인가에 대하여 더 많은 통제권한을 부여해야 한다.
제안 소셜미디어는 이용자 보호 차원에서 게시글, 댓글, 메모 등 모든 곳에서 악의적 콘텐츠를 필터링할 수 있는 방패 기능을 제공해야 하고 이렇게 걸러진 내용물은 대시보드에 보관하여 필요한 경우 스스로 혹은 외부 도움을 받아서 내용물을 확인하거나 대응할 수 있게 해주어야 한다.
o 이용자는 클릭 한번으로 방패 기능을 활성화시킬 수 있어야 하며, 이용자에게 필터링하고자 하는 콘텐츠의 범위를 설정할 수 있게 해주어야 한다
o 소셜미디어가 비정상적인 계정 활동을 탐지하면, 이용자에게 방패 기능을 작동시키거나 방패 기능의 설정을 변경하라는 알림을 제공해야 한다.
o 필터링된 콘텐츠가 보관된 대시보드에는 다음과 같은 기능이 제공되어야 한다
- 대시보드에 보관된 콘텐츠를 재검토하여 유해하지 않다고 판단되면 대시보드에서 빠져나오게 하고 필터링에서 걸러내지 못한 유해 콘텐츠는 수동으로 대시보드에 보관할 수 있어야 한다.
- 대시보드에는 유해 콘텐츠 보관 기능 외에 가해자 신고, 정신건강·법률 지원 등과 같이 피해자 보호를 위한 여러 가지 기능도 함께 제공되어야 한다.
□ 사후적 조치
1. 가해자의 접근 제한 기능 강화
문제점 사이버폭력이 발생하면 신속하게 가해자의 접근 및 폭력적 콘텐츠의 확산과 이에 대한 피해자의 노출을 차단하기 위한 조치를 취해야 한다. 이를 위한 기능으로는 가해자 차단, 묵음처리, 제한 등이 가능하나 각 플랫폼마다 이런 기능을 적용하는 방식이 다르다. 따라서 각 소셜미디어마다 사용법을 따로 배워야 하는 사용자에게는 성가시고 때로는 혼동을 초래할 수도 있다.
차단(blocking)은 특정 계정이 나에 대한 정보 혹은 나의 게시물을 보지 못하게 할 뿐만 아니라 댓글도 달지 못하게 하는 것을 의미한다. 이렇게 차단은 사이버폭력 가해자의 나에 대한 접근을 막는 수단이 되지만, 자신이 차단된 것을 알게 되면 더 공격적이 되거나 다른 계정을 통해서 공격하는 부작용이 있을 수 있다. 이를 극복하기 위해 도입된 것이 묵음처리(muting)이다. 묵음처리를 하면 피해자는 더 이상 가해자의 댓글을 보지 않아도 되지만 차단과는 달리 가해자는 자신의 댓글을 쓰고 볼 수 있어 자신의 댓글이 묵음 처리된 것을 인지하지 못한다. 묵음 처리기능이 트위터와 인스타그램에서는 적극적으로 활용되는 반면 페이스북에서는 30일간 일시적으로 특정 계정을 잠재우기와 같은 형식으로 소극적으로만 활용되고 있다. 인스타그램은 2019년 제한(restricting) 기능을 도입하였는데, 제한된 계정이 단 댓글은 나뿐만 아니라 글을 쓴 사람 이외 모든 사람에게 공개되지 않으며 별도의 공간에 보관되므로 나중에 선별적으로 공개하거나, 삭제 등으로 처리할 수 있다.
제언 소셜미디어는 피해자들이 악성 콘텐츠에 노출되는 것을 방지하기 위해서 차단, 묵음처리, 제한 기능을 다음과 같이 개선할 뿐만 아니라 표준화를 해야 한다.
o 기능 개선 사항들
- 트위터와 인스타그램처럼 페이스북도 키워드 혹은 이모지를 기준으로 특정 콘텐츠를 묵음처리할 수 있는 기능을 제공해야 한다.
- 트위터, 페이스북, 인스타그램은 이용자들에게 비공개 메모 전송도 차단뿐만 아니라 묵음처리할 수 있는 기능을 제공해야 한다.
- 인스타그램처럼 트위터와 페이스북도 이용자가 댓글을 선택하여 여러 계정을 한꺼번에 차단, 묵음처리 혹은 제한을 할 수 있어야 한다.
- 트위터와 페이스북은 인스타그램의 최신 기능인 제한과 유사한 기능을 제공해야 한다.
o 본인이 직접 차단, 묵음처리 등을 할 수 없는 상황을 고려하여 비번을 공유하지 않고도 대리인의 도움을 받아 이를 처리할 수 있게 하는 기능을 제공해야 한다.
o 소셜미디어 기업, 시민단체, 이용자 집단들이 모여서 피해자 보호를 위한 핵심 기능을 표준화하고 저작권을 개방하여 함께 사용할 수 있는 방안을 논의해야 한다.
2. 신고 기능의 개선 및 강화
문제점 사이버폭력의 재발 방지를 위해서는 피해자의 신속한 신고와 사업자의 즉각적인 대응이 중요하다. 하지만 미국 문인협회의 2017년 조사[5]에 의하면 소셜미디어에서 사이버폭력을 경험하고 이를 신고한 응답자의 71%가 소셜미디어가 도움이 되지 않는다고 응답하였다고 한다. 또 다른 연구[6]에서는 미국인의 77%가 소셜미디어 기업들이 유해 콘텐츠 및 가해 행위에 대한 신고를 더 쉽게 해야 한다고 응답하였다고 한다. 모든 소셜미디어가 신고 대상이 되는 유해 콘텐츠에 대한 자체 규정을 갖고 있지만 막상 신고를 하려고 하면 이 정책이 어디에 있는지 쉽게 찾을 수 없다. 그리고 신고할 때는 유해 콘텐츠의 유형을 ‘특정인을 대상으로 한 괴롭힘’, ‘사생활 정보의 게시’, ‘혐오 유도’, ‘폭력 위협’, ‘무례하거나 공격적 표현’ 등에서 하나를 선택해야 하지만 각각이 무엇을 의미하는지에 대한 친절한 설명도 없다. 그리고 여러 계정 혹은 콘텐츠를 한꺼번에 신고할 수 있는 기능도 없으며 자신의 과거 신고 기록을 확인할 수도 없을 뿐만 아니라 신고가 어떻게 처리되는지 그리고 신고 처리 결과에 대한 이의제기 절차에 대하여도 충분히 설명하고 있지 않다. 나아가 각 소셜미디어마다 서로 다른 신고 절차를 갖고 있어 소비자는 각 소셜미디어마다 신고 절차를 숙지해야 하는 불편을 감수해야 한다.
제언 악성 콘텐츠 신고 기능은 사용자 친화적이고 신고자의 요구를 충분히 반영하여야 할 뿐만 아니라 피해자의 고통을 고려하여 다음과 같이 개선되어야 한다.
o 소셜미디어는 악성 콘텐츠 신고시 선택해야 하는 유해 유형을 분류할 때 자신의 콘텐츠 관리 정책(가이드라인)에서 사용하는 분류 체계와 일치시킬 뿐만 아니라 각 유형에 대한 설명도 신고시 쉽게 이해할 수 있도록 해야 한다.
o 이용자 친화적이고 신고자의 편의성을 고려한 신고 절차를 마련해야 한다.
- 신고자가 작성한 신고 초안에 대한 저장 기능을 제공하여 추후 수정 보완이 가능하게 해야 한다.
- 자신의 과거 신고 이력을 확인할 수 있게 하여 신고 시를 이를 활용할 수 있게 해주어야 한다.
- 신고 대상에 대한 추가적인 맥락 정보(문화적 혹은 지역적으로만 통용되는 특수한 악의적 표현 혹은 상징에 대한 설명 등)도 제공할 수 있게 해야 한다.
- 여러개의 악성 계정 혹은 콘텐츠를 일일이 개별적으로 신고하지 않아도 되도록 묶음 신고 기능을 제공해야 한다.
o 본인이 직접 신고할 수 없는 상황을 고려하여 신고를 도울 수 있는 대리인을 지정하고 대리인을 통해서 신고할 수 있는 기능을 제공해야 한다.
o 악성 콘텐츠라고 신고한 콘텐츠가 삭제되지 않을 경우에는 이에 대하여 이의를 제기할 수 있는 공개적이고 형식화된 절차를 보장해야 한다.
3. 편리한 증거 채증 기능 제공
문제점 피해를 당한 사람이 신고 혹은 다른 사람의 도움을 받기 위해서는 가해 내용을 추적하고 기록 및 채증하는 것이 중요하다. 증거로서 기능하기 위해서는 악성 콘텐츠에 대한 캡쳐, URL, 악성 콘텐츠가 유통된 소셜미디어 이름, 가해자의 기본적인 정보(아이디 등), 가해 시간과 날짜 등을 수집해야 하지만 사이버폭력의 고통 속에 있는 피해자가 이를 채증하기는 쉽지 않다. 하지만 어느 소셜미디어도 가해 행위를 쉽게 채증할 수 있는 도구를 제공하고 있지 않다.
제언 신속하고 싶게 가해 행위를 채증할 수 있게 다음과 같은 기능을 제공해야 한다.
o 피해자가 차단, 묵음처리, 제한, 필터링을 통해서 가해 콘텐츠라고 인지하고 있는 모든 공개 자료들을 자동으로 캡쳐할 수 있는 기능을 제공해야 한다.
o 클릭 한번으로 모든 가해 콘텐츠가 채증되어야 할 뿐만 아니라 추가로 필요한 내용(맥락 정보, 관련된 해시태그 등 자동 채증된 내용물을 보완할 수 있는 정보)도 보충할 수 있어야 한다.
o 채증된 정보를 저장하여 비영리 조직, 고용주, 지원 단체, 혹은 법률 서비스 기관 등 다른 사람과 공유할 수 있게 해주어야 한다
4. 긴급상황 대응 핫라인 개설 및 긴급 도움(SOS)버턴 운영
문제 대규모의 동시적인 악성 댓글 테러 행위 혹은 신체적 혹은 성적 폭력 위협 등과 같이 심각한 정신적 고통에 노출된 피해자는 가해 행위에 어떻게 대처할지 정신이 막막할 수가 있다. 하지만 어느 소셜미디어도 이런 피해자를 돕기 위한 대응 시스템을 갖추고 있지 못하다.
제언 심각한 사이버폭력 피해자를 돕기 위해 다음과 같은 기능이 제공되어야 한다
o 심각한 사이버폭력을 당하고 있는 이용자에게 실시간으로 이들의 정신적 고통을 고려한 개인 맞춤의 도움을 제공할 수 있는 긴급 연락처(전화 번호 혹은 채팅)를 제공해야 한다.
- 긴급 도움 서비스는 소셜미디어가 자체적으로 제공하는 것뿐만 아니라 제3의 외부 기관이 제공하는 것도 포함해야 한다.
o 피해자가 손쉽게 긴급 도움 서비스를 받을 수 있도록 긴급 도움(SOS) 버톤을 생성하고 이를 이용자의 편의성과 접근성 고려하여 이용자들이 통상 활동하는 공간에 배치하여야 한다.
II. 가해자 무력화 방안
사이버폭력의 잠재적 가해자가 사이버폭력 행위를 못하도록 하기 위해서는 사이버폭력 방지 기술(디자인) 적용, 소셜미디어의 콘텐츠 정책에 대한 이용자 교육 강화, 가해자에 대한 적절한 처벌과 규제 등이 필요하다.
1 사이버폭력 방지를 위한 기술(디자인) 적용
문제점 사이버폭력 행위 중에는 상대방에 대한 깊은 증오심 혹은 편견으로 인한 것도 있지만 깊은 성찰없이 상대방에게 초래될 상처를 생각하지 않고 습관적으로 악성 메시지를 보내는 경우도 많다. 이를 차단하기 위해서는 악성 메시지 발송 전 자신의 행위를 되돌아 보게 하는 너지(nudge)[7] 전략만으로도 사이버폭력을 어느정도 막을 수 있다. 트위터와 인스타그램은 입력하려는 댓글의 내용을 사전에 탐지하여 유해 요소가 있다고 판단되면 ‘정말로 이렇게 쓰려고 합니까?’ ‘이런 글은 지침 위반에 해당되어 삭제될 수도 있습니다’ 등과 같이 숙고하게 하는 문구를 제시하는 기능을 시범적으로 적용하고 있다.
제언 사이버폭력 방지를 위한 기술(디자인)의 적용을 확산하기 위해 다음과 같은 점을 제안한다.
o 소셜미디어는 너지 전략을 활용한 사이버폭력 행위 차단 노력을 확대해야 하며, 너지 전략이 사이버폭력 방지에 얼마나 도움이 되는지 조사하고 이를 공개해야 한다.
o 사이버폭력을 사전에 탐지하기 위해서 사용되는 알고리즘을 쉽고 투명하게 설명하고 이 시스템이 가질 수 있는 편견의 차단을 위해서도 어떤 노력을 했는지 공개해야 한다.
2 소셜미디어의 콘텐츠 관리 정책에 대한 이용자 교육 강화
문제점 모든 소셜미디어는 자신의 플랫폼에서 활동하는 이용자들의 행동을 규제하기 위한 규범과 정책을 갖고 있다. 그리고 이것을 언제 어디서나 쉽게 이용자들이 접근하여 내용을 숙지할 수 있게 한다면 사이버폭력 가해자를 감소시킬 수 있을 뿐만 아니라 자신들의 정책에 대한 투명성 제고 및 임의적이고 자의적인 규정이라는 비판에서 벗어날 수 있을 것이다. 하지만 모든 소셜 미디어는 자신의 콘텐츠 정책에 대한 홍보를 소홀히 하여 대부분의 이용자는 이를 잘 모르고 있다.
제언 소셜미디어의 콘텐츠 관리 정책에 대한 이용자의 인식 고양을 위해 다음과 같은 사항을 제언한다.
o 소셜미디어는 자신의 규칙과 이것을 위반했을 때의 결과에 대한 정보를 이용자가 소셜미디어를 통상 이용하는 공간에서 실시간으로 쉽게 직접 접근할 수 있게 해야 한다.
o 적용되는 규정이 무엇인지를 알려주기 위해서 너지 전략. 레이블링, 맥락적 단서 등 다양한 디자인적 요소를 충분히 활용해야 한다
o 소셜미디어는 주기적으로 이용자에게 자신 정책의 주요 사항 혹은 변화 등을 알림을 통해서 알려주어야 한다.
3. 가해자에 대한 적절한 처벌과 규제
문제점 사이버폭력 근절을 위해서는 악성 메시지를 보내는 계정의 이용중지 혹은 삭제 등과 같은 강력한 수단이 도움이 될 때도 있다. 하지만 트위터, 인스타그램, 페이스북 모두 처벌 규정을 갖고는 있지만 이를 이용자들이 쉽게 이해할 수 있게 설명되지 않아 투명성이 결여되어 있다. 하지만 유튜브는 상대적으로 처벌 수위 및 절차에 대하여 친절히 설명하고 있다. 그래서 콘텐츠 가이드라인을 처음 위반한 채널에게는 1차 ‘주의’가 주어지고 재차 위반한 경우에는 2차 ‘경고’가 주어진다. 처음 경고를 받으면 1주일간 동영상 업로드를 못하는 제한 조치가 이루어지고, 2차 경고를 받게되면 2주일간 콘텐츠 게시를 할 수 없게 되며 90일 이내 경고를 3번 받게되면 채널이 삭제된다고 한다. 물론 아주 심각한 위반인 경우에는 바로 채널이 삭제될 수도 있으며, 각 단계마다 이의제기를 할 수도 있도록 하고 있다.
제언 소셜미디어의 콘텐츠 관리 규정 위반에 적용되는 처벌을 효과적 운영을 위해 다음 사항을 제언한다.
o 소셜미디어는 주의, 경고, 일시적 기능 제한, 사용 중지, 계정 삭제 등과 같은 규정 위반자에 대한 처벌 규정을 투명하게 운영하여야 한다.
o 규정 위반자에게는 위반 내용이 무엇인지? 지금 당장 받을 벌칙과 향후 재발시 받게될 벌칙, 그리고 이의제기를 포함한 다음 절차 등을 이용자들에게 쉽고 단순할 뿐만 아니라 일관성 있게 전달해야 한다.
o 소셜미디어 기업, 시민단체, 이용자 집단 등이 참여하는 연합체를 구성하여 모든 소셜미디어 이용자들이 공통으로 예측할 수 있는 벌칙 수위의 표준을 제정해야 한다.
o 잘못된 처벌의 피해를 신속히 구제하기 위해서 게시물의 삭제 혹은 계정이 차단된 이용자들에게 더 강력하고 규정화된 이의제기 절차를 마련하여야 한다.
- 이의제기 절차는 이용자가 통상적으로 활동하는 공간에서 구현될 수 있게 설계해야 한다
- 이의제기 과정이 어떻게 처리되는지에 대하여는 투명한 정보가 제공되어야 한다.
- 악의적 신고에 의한 부당한 콘텐츠 삭제 혹은 계정 중지는 긴급한 정치적 토론과 같은 경우에는 계정의 복구가 늦어지면 큰 손해를 초래하는 만큼 신속하게 이의제기가 처리될 수 있도록 충분한 자원을 할당해야 한다.
II. 결론
소셜미디어가 사이버폭력 방지를 위해 해야 할 일을 매우 구체적으로 제시하고 있는 본 보고서는 안전한 온라인 이용 환경 구현을 위해 소셜미디어의 역할과 책임이 강조되고 있는 상황에서 나온 시의 적절한 보고서라고 생각된다. 본 보고서의 책임 저자인 빅토랴 빌크(Viktorya Vilk)는 사이버폭력에 대한 지금까지 소셜미디어의 대응은 너무 미온적이었으며 이 문제를 해결하기 위해 최선을 다하고 있다는 립 서비스만 제공하고 있었다고 비판하고 있으며, 미국 문인협회 대표인 수잔 노셀(Suzanne Nossel)은 여기 제시된 요구는 당장 실천할 수 있는 최소한의 요구이므로 소셜미디어가 이를 외면할 수 없을 것이라고 지적하고 있다. 하지만 본 보고서가 요구한 사항들을 모두 다 반영하는 것은 소셜미디어 기업에게 만만치 않은 부담이 될 것으로 생각되는 만큼 소셜미디어가 이에 어떻게 반응할 지는 두고 볼 일이라고 생각된다. 이와 함께 국내에서 서비스되고 있는 여러 소셜미디어들도 참고하여 적용할만한 사항은 없는지 꼼꼼하게 검토할 필요가 있다.
이 글은 지능정보윤리 이슈리포트_여름호(21.06)에 실린 글로서 아래 사이트에서도 확인할 수 있다. https://www.digitalcitizen.kr/front/iNews/trend/selectTrendList.do
[1] 미국 문인협회는 문학을 통한 문화교류 증진, 표현의 자유, 문인들의 권익 보호 등을 위해 설립된 세계 문인협회(PEN International)의 미국 지부로서 7,200명 이상의 회원을 가진 전 세계에서 가장 규모가 큰 지역 문인협회임
[2] 미국 문인협회의 보고서는 일반인이 가장 많이 이용하는 트위터, 인스타그램, 페이스북 3종류의 소셜미디어에 대하여만 분석하고 있어 여기서도 이에 대한 내용만을 다룸
[3] https://blog.twitter.com/en_us/topics/product/2020/new-conversation-settings-coming-to-a-tweet-near-you.html
[4] 유해 콘텐츠 필터링을 위한 기술 개발 노력으로는 구글의 Perspective 프로젝트가 있으며. Sentropy와 같은 기업은 사업자를 대상으로 악성 콘텐츠 차단 서비스를 제공하고 있음
[5] “Online Harassment Survey: Key Findings,” PEN America (blog), April 17, 2018, pen.org/online-harassment-survey-key-findings/
[6] “Online Hate and Harassment: An American Experience,” Anti-Defamation League, June 2020, adl.org/media/14643/download
[7] 팔꿈치로 쿡 찌른다는 사전적 의미를 가진 너지(nudge)는 강요가 아니라 은근설쩍 혹은 부드럽게 상대방의 행동변화를 유도하는 전략을 의미한다.