기술이 점점 더 똑똑해지는 시대, 우리는 정말 더 나은 세상으로 가고 있을까? 프린스턴 교수이자 사회학자인 루하 벤자민은 오랫동안 기술, 불평등, 그리고 권력의 관계를 탐구해 왔다. 그녀는 우리가 머신러닝의 작동 방식에 적극 개입해야 한다고 주장하며, 인간의 편향성이 인공지능에 그대로 스며들 위험을 경고한다. 실제로 많은 전문가들은 AI가 혁신적인 도구인 동시에, 사회적 차별을 더욱 고착시킬 수도 있다고 우려한다.
AI가 어떻게 불평등을 키울 수 있는지 궁금하다면, 이번 갤러리에서 더 깊이 파헤쳐보자!
그리스 신화 속 판도라의 상자 이야기에서, 제우스는 신들의 여러 가지 선물을 담아 만든 아름다운 여성, 판도라를 창조했다.
아프로디테는 그녀에게 아름다움을, 아테나는 지혜를, 그리고 헤르메스는 호기심을 선물했다.
판도라는 에피메테우스에게 주어졌고, 그의 형제 프로메테우스는 제우스의 선물을 경계하라고 충고했지만, 판도라의 아름다움에 매료된 에피메테우스는 그녀를 아내로 맞이했다.
하지만 판도라는 빈손으로 온 것이 아니었다. 제우스는 그녀에게 상자를 하나 주며 절대 열지 말라고 경고했다. 그 안에는 세상의 모든 재앙이 담겨 있었기 때문이다.
그러나 판도라가 받은 선물 중 하나가 바로 호기심이었다. 결국 그녀는 상자를 열었고, 그 순간 상자 속에 갇혀 있던 온갖 재앙이 세상으로 퍼져나가 인류의 운명을 영원히 바꿔 놓았다.
뒤늦게 자신의 실수를 깨달은 판도라는 급히 상자를 닫았지만, 단 한 가지가 상자 속에 남아 있었다. 그것은 바로 ‘희망’이었다.
그렇다면 판도라의 이야기가 AI와 무슨 관계가 있을까? 우리는 지금 거대한 기술 혁신의 문턱에 서 있다. 그러나 AI와 관련된 많은 논의는 아직 추측에 기반을 두고 있다.
어떤 의미에서 AI는 현대판 판도라의 상자와 같다. AI가 본질적으로 악하거나 위험하다는 뜻이 아니다. 하지만 전문가들이 경고하는 가운데에서도 AI의 발전 속도는 계속 가속화되고 있으며, 그로 인한 예상치 못한 결과를 초래할 위험이 있다.
혁신, 특히 기계의 자율성을 빠른 속도로 추진해야 하는 과제는 특히 기술이 우리 삶에 더욱 깊숙이 자리 잡으면서 많은 위험과 잠재적 격차에 노출되어 있다.
특히 머신러닝 모델은 의사 결정 프로세스를 학습하고 육성하기 위해 데이터 세트에 의존하는 경우가 많다.
또한, AI 시스템은 이러한 편견을 복제하는 것 외에도 이러한 데이터 세트에 내재된 편견을 더 증폭시킬 수도 있다.
예를 들어, 정부나 기업, 기관에서 사용하는 얼굴 인식 시스템은 데이터의 다양성이 부족한 탓에 인종적 편향을 띠는 경우가 많다.
미국시민자유연맹(ACLU)에 따르면, 얼굴 인식 시스템의 오차율은 밝은 피부를 가진 사람들에게는 1% 미만이지만, 어두운 피부를 가진 사람들에게는 무려 35%에 달한다는 연구 결과가 있다.
또한 미국 정부의 실험에서도 얼굴 인식 기술은 중년의 백인 남성을 가장 정확하게 인식한 반면, 피부색이 어두운 사람들에게는 인식 정확도가 크게 떨어지는 것으로 나타났다.
이러한 기술이 이미 불평등이 심각한 미국의 형사 사법 시스템에서 사용될 경우, 소외된 집단이 더욱 부당한 처우를 받을 위험이 커진다. AI는 분명 우리가 조심스럽게 다뤄야 할 강력한 도구이며, 그 잠재력만큼이나 그로 인한 위험도 분명 존재한다.
판도라의 상자가 열렸듯, AI 역시 이미 우리의 삶 깊숙이 들어와 있다. 이제 남은 질문은 이것이다. 우리는 과연 그 안에 남아 있는 ‘희망’을 제대로 활용할 수 있을까?
대부분의 AI 시스템을 뒷받침하는 알고리즘은 데이터 입력 방식과 설계 구조로 인해 차별을 더욱 심화시킬 수 있다.
많은 연구자들이 우려하는 부분은, 딥러닝을 기반으로 한 AI 시스템이 의사결정 과정을 이해하기 어렵다는 점이다.
이러한 시스템은 본질적으로 투명성이 부족하며, 따라서 정확히 어디에서, 어떻게 차별이 발생하는지를 밝혀내기가 어렵다.
이 때문에 효과적인 개입 전략을 마련하는 것이 더욱 어려운 과제가 된다. AI는 점점 더 많은 제도적 의사결정에 활용되고 있다. 대출 승인, 의료 서비스, 채용 절차 등 다양한 분야에서 AI의 영향력이 커지고 있다.
과거 역사적으로 이러한 상황 중 상당수는 이미 소외된 집단, 특히 유색인종에 대한 차별이 존재했었다.
여기에 AI 의사결정이 추가되면서, 기존의 차별이 더욱 심화되거나 지속될 위험이 있다. 예를 들면, 의료 분야에서 AI는 환자에게 적절한 치료법을 추천하는 데 사용될 수 있다.
하지만 만약 학습 데이터에 다양한 인구 집단에 대한 정보가 충분히 반영되지 않았다면, 특정 그룹에게는 효과적이지 않은 치료법이 제안될 수도 있다.
은행 대출의 경우, 알고리즘은 주택담보대출 신청자의 적격 여부를 평가하는 데 활용된다.
그러나 과거 대출 관행이 특정 집단을 우대하거나 다른 집단을 차별했던 역사가 있다면, 이러한 편향이 그대로 승인 과정에 반영될 수 있다.
AI 시스템이 특정 특성을 특정 행동과 연관 짓도록 학습하면서 기존의 고정관념이 더욱 강화될 수도 있다는게 전문가들의 견해이다. 따라서 AI 시스템은 학습 과정에서 다양한 인구 집단을 대표할 수 있는 데이터를 반영하도록 설계되어야 한다.
이러한 노력이 없다면 AI는 오히려 기존의 편견을 그대로 답습하거나 더욱 심화시키는 결과를 초래할 수 있다. AI는 보다 공정하고 포괄적인 결정을 내릴 수 있도록, 데이터의 다양성과 대표성을 보장하는 것은 앞으로의 필수적인 과제다.
출처: (ACLU) (The Guardian) (‘Race After Technology’) (MIT Media Lab)
AI 머신러닝은 어떻게 차별을 조장할까?
기술을 통해 심화하는 사회적 차별의 위험성
라이프 스타일 기술
기술이 점점 더 똑똑해지는 시대, 우리는 정말 더 나은 세상으로 가고 있을까? 프린스턴 교수이자 사회학자인 루하 벤자민은 오랫동안 기술, 불평등, 그리고 권력의 관계를 탐구해 왔다. 그녀는 우리가 머신러닝의 작동 방식에 적극 개입해야 한다고 주장하며, 인간의 편향성이 인공지능에 그대로 스며들 위험을 경고한다. 실제로 많은 전문가들은 AI가 혁신적인 도구인 동시에, 사회적 차별을 더욱 고착시킬 수도 있다고 우려한다.
AI가 어떻게 불평등을 키울 수 있는지 궁금하다면, 이번 갤러리에서 더 깊이 파헤쳐보자!