AI의 인권 존중을 요구하는 "토론토 선언"이 발표

2018년 5월 16일, 캐나다, 토론토에서 인권이나 기술 관련 단체들이 기계 학습 기준에 대한 새로운 선언을 발표했다.


그것은 정부 및 하이테크 기업에 대해, 기계 학습 시스템의 알고리즘이 평등과 차별 금지라는 기본 원칙을 존중하도록 보장 할 것을 요구하고 있다.



"토론토 선언"이라고 부르는 문서는, 기계 학습을 차별하는 것을 방지하고, 또 경우에 따라서는 기존의 인권 위반을 방지 할 의무에 대해 말하고 있다는.


- 기계 학습 시스템에서 인권을 보호


이 선언은, 디지털 인권 단체가 매년 실시하고 있는 "라이츠콘(RightsCon)" 실시중에 발표됐다.


"우리는 이러한 기술이 인간 개인과 인권에 미치는 영향에 계속 주시해야 한다"고 서문에 언급되어 있다. "기계 학습 시스템의 세계에 있어서, 인권 침해에 대한 책임은 누가져야 하는것일까?"




토론토 선언에는, 이미 엠네스티 인터내셔널, 액세스 나우, 휴먼 라이츠 워치, 위키 미디어 재단이 서명하고있고, 앞으로 몇 주 안에 또한 참가자가 늘어날 전망이다.


실제로 지금까지의 연구에서, 인간이 만들어 낸 데이터를 학습시킨 AI는, 차별이나 편견 등 인간의 악한 성질이 재현되는 것으로 증명되고 있다.



- 법적 구속력은 없지만, 기업이나 정부의 지침으로


선언은 법적 구속력을 가지는 것이 아니라 정부와 첨단 기술 기업이 이러한 문제에 대응하는데 지침이 될 예정이다.


선언이 구체적인 개발 작업에 있어, 어떻게 적용되는지는 알 수 없지만, 향후 데이터 세트와 입력에 대한 자세한 권장 사항이 공개 될지도 모른다.


- 위반시 개인 구제 방법도


일반적인 차별 금지뿐만 아니라 알고리즘이 그것을 위반 한 경우에 개인의 권리를 구제하는 수단에 대해서도 언급하고 있다.


예를 들어, "그에 따른 불이익 이 개인 또는 사회적 영향을 시정하기 위한 명확하고 독립의 가시적 프로세스"나 "이용 가능하고 효과적인 항소 및 사법 심사" 등이 선언에서 제안되고 있다.




현실적으로는 일반적인 알고리즘의 구조에 의해 투명성이 요구되는 것을 의미한다.


"투명성은 책임과 일체의 것이다. 사용자가 제품에 대해 쾌적하게 있을 수 있도록 하는 등 간단한 것뿐만 아니라 AI가 인간의 존엄성에 유용한 작업을 수행하는 메커니즘으로 확보하는 것이기도 하다"고 휴먼 라이츠 워치의 다이나 포겐프나 씨는 설명한다.



- 이미 많은 정부는 인권 보호를 위해 움직이고 있다


많은 정부는 이미 유사한 지침에 따라 움직이고 있다. 라이츠콘의 오프닝 세션에서는 캐나다의 모 장관이 알고리즘의 투명화는 온라인에서의 광범위한 정보 교환에 필수적이라고 발언했다.


"우리는 민주적 인 인터넷을 믿는다. 그러므로 우리에게는 알고리즘의 투명화는 매우 중요하다. 레시피를 알 필요는 없지만, 소재는 알려지지 않으면 안된다"