"윤리 없는 AI는 '서비스'가 아니라 '사고'를 만듭니다.
우리가 만드는 건 코드가 아니라 '결정'이고, 그 결정은 누군가에게 결과로 돌아갑니다."
얼굴, 대화, 위치 등 "나를 설명하는 정보"가 동의 없이 수집/유출
데이터가 치우쳐 특정 사람/그룹에게만 오류나 불이익이 집중됨
AI의 실수가 교통사고, 작물 폐사 등 현실의 '물리적 충돌'로 이어짐
원격 제어가 해킹되어 기기가 조종당하거나 시스템 전체가 마비됨
AI도 틀릴 수 있는데, 사람이 AI의 거짓/오류를 '정답'으로 맹신함
사고 발생 시 "AI가 한 일이라 모른다"며 책임을 미루어 신뢰 붕괴
현실 예시: 현대모비스 DSW
현실 예시: 듀오링고 Max (GPT-4 연동)
현실 예시: 구글 Flood Hub
현실 예시: 그린랩스 팜모닝
안전하고 신뢰받는 프로젝트를 위해 코드 작성 전 반드시 확인하세요.
이 기능이 직·간접적으로 영향을 주는 사람(이해관계자)은 누구인가?
목적 달성을 위해 꼭 필요한 데이터만 최소한으로 수집하고 있는가?
수집된 데이터는 유출되지 않도록 안전하게 보호되고 있는가?
AI가 특정 사람이나 그룹에게 더 자주 틀리지 않는지(편향) 테스트했는가?
시스템이 오류를 일으키거나 멈췄을 때를 대비한 안전장치(비상 스위치)가 있는가?
AI가 왜 그런 결정을 내렸는지 사용자에게 투명하게 설명(기록/로그)할 수 있는가?
출시(배포) 후에도 사람들의 피드백을 받아 계속 모니터링하고 개선할 계획이 있는가?