AI 윤리와 신뢰성 제고의 중요성과 실현 위한 기업들의 노력, 인간의 존엄성과 공공선을 존중하고 보호하는 방식으로 설계 및 운영 필요

홈 > 최신뉴스 > 주요뉴스
주요뉴스

IT | AI 윤리와 신뢰성 제고의 중요성과 실현 위한 기업들의 노력, 인간의 존엄성과 공공선을 존중하고 보호하는 방식으로 설계 및 운영 필요

권경욱 기자 0   0

인공지능(AI)은 우리의 삶과 사회에 많은 혜택을 가져다주고 있다. 의료, 교육, 법률, 보안, 교통 등 다양한 분야에서 인간의 행복과 복지를 증진시키고, 문제를 해결하고, 창의성을 발휘하고 있다. 하지만 AI는 또한 인간의 권리와 자유를 침해하거나, 사회적 불평등과 차별을 악화시키거나, 인간의 책임감과 창의성을 약화시킬 수도 있다. 따라서 AI는 인간의 존엄성과 공공선을 존중하고 보호하는 방식으로 설계되고 운영돼야 한다. 


AI 윤리란 인공지능의 도덕적이고 책임감 있는 사용을 규율하는 일련의 원칙, 가치 및 지침으로 정의할 수 있다. AI 윤리는 AI의 사회적 영향을 고려하고, AI 시스템이 윤리적 기준과 인간의 가치에 부합하는 방식으로 개발, 배포 및 사용되도록 보장하는 것을 목적으로 한다. AI 신뢰성이란 AI 시스템이 예측 가능하고 검증 가능하며, 안전하고 견고하며, 공정하고 투명하며, 인간의 감독과 개입이 가능한 특성을 의미한다. AI 신뢰성은 AI 윤리를 실현하기 위한 필수적인 요소이다.


AI 윤리와 신뢰성은 중요성은 다음과 같다.


● AI는 인간의 삶과 사회에 많은 영향을 미칠 수 있다. 예를 들어, AI는 의료 진단이나 치료에서 인간의 생명을 구할 수 있지만, 반대로 잘못된 판단이나 오류로 인해 인간의 생명을 위협할 수도 있다. 또한 AI는 법률 판결이나 정책 결정에서 인간의 권리와 정의를 보장할 수 있지만, 반대로 편견이나 차별로 인해 인간의 권리와 정의를 침해할 수도 있다. 따라서 AI는 인간의 존엄성과 공공선을 존중하고 보호하는 방식으로 설계되고 운영돼야 한다.


● AI는 인간의 편향과 오류를 반영하거나 증폭시킬 수 있다. 예를 들어, AI는 학습에 사용되는 데이터가 특정 인종, 성별, 종교 등에 대한 편견을 담고 있으면, 그 결과도 편향되거나 차별적일 수 있다. 또한 AI는 예측이나 의사결정에 있어서 인간이 간과하거나 잘못 판단할 수 있는 요소들을 고려하지 못할 수도 있다. 따라서 AI는 공정성과 투명성을 갖추고, 인간의 감독과 개입이 가능한 방식으로 개발되고 운영돼야 한다.


AI 윤리와 신뢰성을 실현하기 위해서는 다양한 이해관계자들이 협력하고 소통해야 한다. 예를 들어, ● AI 개발자와 연구자들은 AI 윤리 원칙과 가이드라인을 준수하고, AI 시스템의 안전성과 견고성을 확보하며, AI 시스템의 작동 방식과 한계를 명확하게 설명하고 문서화해야 한다.


● AI 사용자와 소비자들은 AI 시스템의 장점과 위험을 이해하고, AI 시스템에 대한 신뢰와 비판적 사고를 갖추며, AI 시스템에 대한 피드백과 요구사항을 제시해야 한다.


● AI 규제자와 정책 입안자들은 AI 시스템의 윤리적, 법적, 사회적 측면을 고려하고, AI 시스템의 표준과 규제를 마련하고, AI 시스템의 모니터링과 감독을 수행해야 한다.


● AI 교육자는 AI 시스템의 기초와 원리를 널리 알리고, AI 윤리에 대한 인식과 교육을 증진시키고, AI 윤리에 대한 다양한 의견과 논쟁을 촉진해야 한다. AI 윤리와 신뢰성에 대한 국제적인 논의는 이렇게 진행되고 있다.


● 유엔교육과학문화기구(UNESCO)는 2021년 11월 25일 제41차 총회에서 193개 회원국의 만장일치로 인공지능 윤리 권고를 채택했다. 이 권고는 AI의 건전한 발전을 보장하는 법적 인프라 구축을 안내할 공통 가치와 원칙을 정의한다.


● 유럽연합(EU)은 2021년 4월 인공지능에 관한 규제 제안을 발표했다. 이 제안은 AI 시스템의 위험 수준에 따라 ‘금지·고위험·제한된 위험·최소 위험’ 등 4단계의 규제를 적용할 계획이다.


● 미국은 2021년 5월 인공지능 기술의 책임 있는 사용을 위한 국가 전략을 발표했다. 이 전략은 AI 기술의 혁신과 경쟁력을 강화하면서도 인권,민주주의, 공정성 등의 가치를 존중하고 보호하기 위한 방안을 제시한다.


● 한국은 2020년 12월 인공지능 윤리 헌장을 선포했다. 이 헌장은 인간 중심의 AI 개발과 활용을 위해 ‘인간 존엄성·자율성·공정성·사회적 책임·보안성’ 등 5대 원칙과 10대 구체적 실천 방안을 제시한다.


이러한 국제적이고 다양한 논의와 협력은 AI 윤리와 신뢰성을 보다 실질적이고 구체적으로 구현하기 위한 필요한 과정이다. 하지만 이러한 노력들이 실제로 AI 시스템의 개발과 운영에 반영되기 위해서는 AI 기업들의 적극적인 참여와 선도가 필요하다. AI 기업들은 AI 윤리와 신뢰성에 대한 인식과 책임감을 갖고, 자신들의 AI 기술과 서비스가 사회에 미치는 영향을 고려하고, 윤리적 가치와 원칙을 준수하고, 신뢰할 수 있는 AI 시스템을 제공해야 함은 물론이다.


글로벌 AI 기업들은 데이터를 수집하고 활용하는 과정에서 윤리적인 문제에 직면할 수 있다. 예를 들어, 데이터의 품질과 신뢰성, 데이터의 편향성과 차별성, 데이터의 개인 정보 보호와 보안성, 데이터의 투명성과 설명 가능성 등이 그것이다. 이러한 문제들을 해결하기 위해 글로벌 AI 기업들은 다양한 노력을 하고 있다.


● IBM은 2018년 AI 윤리 원칙을 발표했다. 이 원칙은 ‘AI는 인간의 가치와 권리를 존중하고 보호해야 한다’, ‘AI는 투명하고 설명 가능해야 한다’, ‘AI는 신뢰할 수 있고 안전하며 책임감 있게 개발되고 운영돼야 한다’ 등으로 구성되어 있다. IBM은 이 원칙을 실천하기 위해 AI 시스템의 편향성, 설명 가능성, 안전성 등을 평가하고 개선할 수 있는 도구와 프레임워크를 개발, AI 시스템의 편향성을 감지하고 완화하는 오픈소스 툴킷 IBM AI Fairness 360과 AI 시스템의 결정 과정과 결과를 이해하기 쉽게 설명하는 오픈소스 툴킷 IBM AI Explainability 360을 공유했다.


● 구글은 2018년 AI 원칙을 발표했다. 이 원칙은 ‘AI는 사회적 이익을 증진시켜야 한다’, ‘AI는 안전하고 신뢰할 수 있어야 한다’, ‘AI는 사람과 협력하고 존중해야 한다’, ‘AI는 과학적인 엄격성과 기술적 우수성을 추구해야 한다’ 등으로 구성되어 있다. 구글은 이 원칙을 실천하기 위해 AI 시스템의 편향성, 설명 가능성, 안전성 등을 평가하고 개선할 수 있도록 AI  모델의 성능과 편향성을 분석하는 오픈소스 도구 TensorFlow Model Analysis4을 개발했다. 구글은 또한 AI 시스템의 윤리적 문제에 대한 연구와 교육을 지원하고 있다.


● 마이크로소프트(MS)는 2019년 'AI 윤리 가이드라인’을 발표했다. 이 가이드라인은 ‘AI는 인간 중심이어야 한다’, ‘AI는 공정하고 비차별적이어야 한다’, ‘AI는 개인 정보와 보안을 보호해야 한다’, ‘AI는 투명하고 설명 가능해야 한다’ 등으로 구성되어 있다. MS는 이 가이드라인을 실천하기 위해 AI 시스템의 윤리, 안전성 등을 평가하고 개선할 수 있도록 AI 공정성 진단 시스템인 Fairlearn을 공개한 바 있다.


국내에서는 업스테이지가 AI 윤리와 신뢰성에 대한 뛰어난 모범사례를 보여주고 있다. 업스테이지는 Making AI Beneficial이라는 비전을 바탕으로 AI로 세상을 더욱 이롭게 하기 위해 기업의 문제들을 AI 기술을 통해 혁신하고 있다. 업스테이지는 오픈LLM 사상 최초로 챗GPT의 메인모델인 GPT3.5의 벤치마크를 뛰어넘는 점수를 기록하며, AI 기술력을 인정받았다. 또한 카카오톡을 통해 서비스하는 챗봇 AskUp은 국내 최대 규모인 150만명의 사용자를 보유하며, 국내 생성AI의 대중화를 이끌고 있다. B2B로는 신뢰할 수 있는 프라이빗 LLM의 표준을 제시하며, 다양한 기업들과 협력하고 있다.


업스테이지는 자사가 운영하는 데이터 수집 및 공유 플랫폼인 '1T 클럽’을 통해 AI 윤리와 신뢰성을 구현하고 있다. 이 플랫폼은 컨텐츠 제공자와 수익을 공유하고, AI가 만들어내는 결과물의 신뢰성과 윤리적 측면을 강화하기 위한 목적을 가지고 있다. 업스테이지는 자체 5대 윤리원칙인 ‘사람중심’, ‘신뢰성’, ‘공정성’, ‘안전성’, '보편성’을 선포하고, 이를 기반으로 데이터를 정제하고 모델을 만든다고 설명했다. 이를 통해 투명하고 윤리적인 양질의 데이터를 모으고, 한국문화 정서를 담아낼 수 있는 고품질의 LLM을 개발하고자 한다고 밝혔다.


업스테이지는 1T 클럽에 참여하는 파트너사들에게 API 사용료 할인과 LLM의 API 사업 수익 공유 등의 혜택을 제공하고 있다. 이는 데이터 제공자와 모델 제작자가 상생하는 생태계를 구축하고, 국내 LLM의 독립과 글로벌 경쟁력을 확보하기 위한 방안이다. 업스테이지는 1T 클럽을 통해 한국의 AI 능력을 더욱 향상시키고, 글로벌 AI 산업에서 한국이 선두 주자의 위치를 확립하기 위해 최선을 다하는 것은 물론, 특히 크롤링을 통한 AI 학습으로 인해 저작권법 혹은 개인정보 문제에서 자유하지 못한 데이터로 학습하는 문제를 해결하고 데이터 제공자와 모델 제작자 모두가 혜택을 볼 수 있도록 운영할 계획이다.


업스테이지는 이런 성과를 바탕으로 최근 한미 ICT 정책 포럼에서 AI 윤리와 신뢰성에 관한 발표를 진행, 구글과 함께 각국의 대표 민간 AI 기업으로 참여했다. 업스테이지는 이번 포럼을 통해 AI 윤리와 신뢰성에 대한 국제적인 공감대를 형성하고, 협력을 강화하는 중요한 기회가 될 것이라고 기대했다. 업스테이지는 AI의 사회적 책임과 가치를 실현하기 위해 끊임없이 노력하고, 다양한 파트너들과 협력하고자 함을 공유했다.


AI 윤리와 신뢰성은 우리의 미래를 결정하는 중요한 요소다. AI는 인간의 삶과 사회에 많은 영향을 미칠 수 있기 때문에, 인간의 존엄성과 공공선을 존중하고 보호하는 방식으로 설계되고 운영돼야 한다. AI는 인간의 편향과 오류를 반영하거나 증폭시킬 수 있기 때문에, 공정성과 투명성을 갖추고, 인간의 감독과 개입이 가능한 방식으로 개발되고 운영돼야 한다. AI는 인간의 창의성과 책임감을 침해하거나 약화시킬 수 있기 때문에, 인간의 성장과 발전을 지원하고, 인간의 의지와 목적에 부합하는 방식으로 개발되고 운영돼야 한다.


AI 윤리와 신뢰성을 실현하기 위해서는 첨단 기술을 활용하는 기업들이 앞장서 윤리준수를 위해 협력하고 소통해야 한다. 기술 개발과 함께 AI가 인류와 공존하기 위해서 AI 윤리를 실천하는 방법과 모범을 기업들이 제시함으로써 미래를 더 활짝 열 수 있길 기대한다.

 

ⓒ 블루프레임(https://www.blueframe.co.kr) 무단전재 및 재배포금지

, , , , , , , , , ,

0 Comments
많이 본 뉴스
인기기사