트롤리 딜레마와 이적 딜레마 (ft. 집사부일체, 정재승의 인간반)

트롤리 딜레마

26일 오후 방송된 SBS 예능 ‘집사부일체2’에서는 뇌연구원 정재승이 재출석해 멤버들과 정재승의 사람들을 가르치는 일에 대해 이야기를 나눴다. 이날 정재승은 최대다수의 최대행복론인 공리주의 트롤리 딜레마를 강의했다. 정재승 사부는 도덕적 인간이 무엇인지 인공지능에게 가르치는 방법을 찾기 위해 도덕적 인간을 해부하는 시간을 가졌다고 말했다. 감정과 이성이 충돌해 의사결정이 어려웠던 사례를 여러 차례 들었다. 트롤리 딜레마는 많은 결정에 사용됩니다. 예를 들어 트롤리 딜레마는 자율주행의 감지-예측-판단 기술에서도 발생한다. 챗GPT는 지난해 11월 출시 일주일 만에 사용자 100만 명을 돌파한 데 이어 올해 1월 두 달 만에 1억 명을 돌파한 것으로 전해졌다. ChatGTP는 학습 결과를 보여주는 기존 검색 엔진과 다릅니다. 자가 학습 알고리즘 ‘Generative AI’ 기술 적용 사용자의 동일한 요청에도 항상 새로운 결과를 제시합니다. 자율주행 기술자신의 위치와 모든 방향의 모든 물체를 정확하게 인식하고 주변 차량이나 보행자의 상태를 감지하고 움직임을 예측할 수 있어야 합니다. 마침내 자체 추진 다양한 환경과 상황에서 안전하고 신뢰할 수 있는 AI 기반 인지 예측 평가 기술이 선행되어야 한다는 것이다. 자율 주행과 ChatGPT는 둘 다 독립적으로 작동하도록 설계되었으며 직접적인 인간 영향이나 AI 개입 없이 스스로 결정을 내립니다. 그러나 AI가 항상 올바른 결정을 내리는 것은 아닙니다.

AI는 데이터가 충분하지 않거나 사용자의 요구에 비해 데이터 품질이 좋지 않을 때 사용됩니다. 거짓 또는 편향된 정보 제공 또는 원하는 답을 얻지 못할 수도 있습니다. 자율주행에서 AI의 잘못된 판단은 큰 사고로 이어질 수 있다. AI는 트롤리 딜레마처럼 어떤 윤리적 질문에도 대답하지 않습니다. 손수레의 딜레마는 브레이크 고장으로 정지할 수 없는 탄광 수레(수레)가 소수 또는 다수의 사람을 희생시킬 수밖에 없을 때, 명령을 내리거나 지시를 내리거나, 선택을 해야 할 때 어느 쪽을 선택해야 하는가이다. 실제로 70~80%의 사람들이 최대 다수의 최대 행복을 추구한다며 소수가 아닌 다수를 살리기 위해 스위치를 켤 것이라고 답했다. 그는 이러한 행동이 더 도덕적이고 반사적이며 인공 지능에 적용될 가능성이 있다고 말했습니다.

교차 딜레마

정재승의 휴먼 클래스 ‘집사부일체’에서 정재승 사부는 트롤리 딜레마와 비슷하지만 트롤리가 지나가는 선로에 사람을 떨어뜨려 트롤리를 멈출 수 있느냐는 다른 질문을 던진다. 스위치를 누르면 5명의 희생을 막는다. 떨어뜨릴 수 있느냐고 물었다. 대부분의 사람들은 직접적인 행동이 스트레스이기 때문에 압력을 가할 수 없을 것이라고 응답했습니다. 정재승 사부는 트롤리 딜레마 상황과 환승 딜레마 상황에서 작동하는 두뇌가 다르다고 말했다. 정재승 사부는 같은 일이 일어나지 않도록 바리케이드를 치고 사람들에게 오지 말라고 할 수 있지만, 방이 예전처럼 활기차기를 바라는 것은 합리적입니다. 이성적 판단과 감정적 판단이 엇갈릴 때 어떤 결정을 내려야 할지 어렵고 고통스럽지만 판단에는 항상 근거가 있어야 한다고 말했다. 답이 쉽게 나오지 않는 도덕적 딜레마에서 판단의 근거가 있다면 그 근거를 바탕으로 스스로 선택해야 한다고 말했다.