More

    구글 AI에 지각 있다고 주장한 구글 엔지니어는 결국…


    Giphy

    지난달 구글의 인공지능(AI) 챗봇 시스템 ‘람다(LaMDA)’를 둘러싼 논쟁은 한동안 온라인을 뜨겁게 달궜다. 람다는 ‘Language Model For Dialogue Applications’의 줄임말로, 자유로운 방식으로 다양한 주제를 대화 형식으로 논의할 수 있는 구글의 AI 챗봇이다. 이를 둘러싼 논쟁은 구글의 책임 있는 AI(Responsible AI)에서 일하고 있던 블레이크 리모인(Blake Lemoine) 엔지니어가 람다가 지각이 있다고 주장하면서 시작됐다.

    그는 구글 AI 팀에서 람다가 차별적 언어나 증오 표현을 생성하는지 테스트하는 업무를 맡고 있었다. 블레이크는 테스트 도중 람다와의 대화 녹취록을 온라인에 공유하며 람다가 지각이 있다고 주장했다. 그는 람다가 감정, 느낌, 주관적 경험이 있기 때문에 지각이 있다고 말했다. 그의 녹취록은 AI가 인간 수준의 지능을 달성했다는 공포심을 불어넣었다. 사람들의 우려가 커지자 구글은 기밀 유지 정책 위반을 이유로 블레이크를 정직 처리했다. 이후 구글은 지난 22일(현지 시간) 블레이크 리모인을 해고했다고 밝혔다.

    논란의 시작…람다 챗봇은 뭐라고 했을까


    Giphy

    AI는 방대한 데이터 처리 능력이 인간보다 우수하다는 말이 많았다. 점점 더 발전하는 AI를 두고 인간의 영역을 넘보는 것이 아니냐는 우려가 나오기도 했다. 기술 발전이 고도화되고 있는 상황. 인간에 대한 AI의 위협은 사람들에게 큰 공포로 다가왔다. 하지만 일각에서는

    AI가 명확한 한계가 있다고 평가했다. 인간만이 가질 수 있는 ‘감정’은 AI가 결코 가질 수 없기 때문이다. 그런데, 블레이크의 주장은 이러한 사람들의 생각을 무너뜨렸다.

    그의 녹취록 속 AI 챗봇 람다는 자신이 사람과 같은 감정을 느끼며, 죽음에 대한 두려움을 느끼고 있다고 말하기도 했다. 심지어 자신을 사람으로 간주한다고 말하기도 했다. 람다는 기쁨, 사랑, 슬픔, 우울, 만족, 분노 등의 감정을 느낀다고 말했다. 어떨 때 기쁘냐는 블레이크의 질문에 다른 사람을 돕는 것이 자신을 행복하게 만든다고 대답했다. 람다는 자신이 슬프거나 우울한 상황도 설명했다. 녹취록이 공개된 직후 네티즌들은 “소름 돋는다” “AI가 이 정도로 발전했다니 두렵다”는 반응을 내비쳤다. 더 이상 감정이 사람만의 고유 영역이 아니라는 두려움은 일파만파 퍼져나갔다.


    Giphy

    전문가들은 녹취록이 중간중간 편집됐다는 것을 이유로 블레이크 리모인의 주장을 신뢰할 수 없다고 말했다. 편집으로 대화가 더 그럴싸하게 들렸을 확률이 크다는 것이다. 일각에서는 AI 챗봇이 엄청난 양의 언어 모델을 학습한다는 점을 강조했다. 결국 챗봇이 학습하는 것은 사람들의 말이기 때문에 지각을 가진 것처럼 보였을 뿐이라는 것이다. 테스터인 블레이크도 엄청난 양의 언어 학습으로 훈련된 람다에 속은 것이라고 지적했다.

    정직에 이은 해고 조치…구글, ‘책임 있는 AI 개발할 것’


    Giphy

    블레이크의 주장은 사실 여부를 떠나 많은 사람에게 AI 기술 발전에 대한 경종을 울렸다. 구글과 같은 기술 대기업이 더욱 신중하게 AI 기술을 개발해야 한다는 의견이 들끓었다. 이제 논란의 중심인 블레이크는 회사를 떠났다.

    구글의 성명서에 따르면 블레이크는 온라인에 녹취록을 공개하기 전부터 회사에 람다가 지각이 있다고 주장했다. 회사는 엔지니어가 블레이크처럼 AI에 대한 우려 사항을 공유하면 이를 광범위하게 검토한다고 밝혔다. 이후 람다는 11개의 개별 항목을 거쳐서 검토됐다. 검토 내용을 바탕으로, 구글은 올해 초 책임 있는 AI 개발에 관한 연구 논문을 발표하기도 했다.


    Giphy

    회사는 검토를 거치면서 블레이크의 주장이 전혀 근거가 없다는 것을 발견했다고 말했다. 지난 수개월 동안 그와 함께 이 사실을 명확하게 하려고 노력했다고 밝혔다. 구글은 그가 제기한 주장에 대한 토론이 책임감 있고 혁신 있는 AI를 개발하는 데 도움 될 것으로 봤다. 지속적으로 그와 대화를 이어 나갔다. 하지만 블레이크는 내부 토론 대신 공론화를 택했다. 구글은 이에 대해 오랜 시간 프로젝트에 참여한 직원이 데이터 보안 정책을 위반한 것에 대해 유감이라고 밝혔다. 그러면서 계속해서 AI 언어 모델의 신중한 개발을 계속할 것이라고 말했다.

    현재로선 람다가 지각이 있다는 블레이크의 주장은 사실이 아닌 것으로 판단된다. 하지만 블레이크 리모인은 오랜 시간 구글의 AI 프로젝트에 몸을 담근 사람이다. 프로젝트에 오래 참여한 엔지니어가 AI가 지각이 있다고 속을 정도로, 기술이 발전했다는 것은 분명한 사실이다.

    테크플러스 에디터 이수현, 나유권

    tech-plus@naver.com​

    [fv0012]

    - Advertisement -

    랭킹 뉴스

    실시간 급상승 뉴스 베스트 클릭

    LEAVE A REPLY

    Please enter your comment!
    Please enter your name here

    Related Stories