검색결과
-
KTL, ESG 경영위원회 개최로 ESG 경영 지원한다한국산업기술시험원(이하 KTL, 원장 김세종)이 KTL 서울분원(서울 구로구 소재)에서 제1회 ESG 경영위원회를 개최하며 시험인증산업 내 ESG 경영을 선도하기 위해 노력했다. ESG 경영*은 글로벌 스탠다드로 자리 잡은 것은 물론이고, 미래의 핵심 문제로 떠오르는 기후 위기와 지속가능성에 대한 대응책이 될 수 있다. KTL은 이번 경영위원회를 통하여 시험인증산업 내 ESG 경영체계를 한층 고도화했다. *ESG: 기업의 비재무적(돈∙재정에 관한 모든 사무와 연관되지 않은) 요소인 환경(Environment), 사회(Social), 지배구조(Governance)를 뜻함 KTL 위원장인 김세종 원장을 중심으로 이사회∙산업계∙학계 등 ESG 전문가로 구성되었던 이번 경영위원회에서는 수출과 산업 속 친환경, 사회적 신뢰 회복, 청렴∙윤리 경영 실천에 필요한 구체적인 전략과제를 수립하는데 성공했다. 먼저 지속 가능한 청정미래 환경을 구축하기 위해, 친환경 시험인증 서비스를 확대하여 ESG 전환 기업들을 지원한다. 이를 통해 국민 실생활 속 온실가스 감축 및 탄소중립 등의 분야에서 ESG 전환 기업들을 뒷받침할 수 있다. 또한 해외인증 획득을 지원하며 전 세계적 공급망 재편에 따른 수출 플러스 정책지원을 추진한다. 나아가 시험평가 기술 역량 확보에 힘쓰며 우주항공, 미래 모빌리티, 의료사물인터넷, 차량사물통신, 산업용 IoT 사이버 보안 등 미래 기술의 서비스 안전을 도울 예정이다. 아울러 윤리경영과 공정한 업무 체계 구축을 통해 연간 약 24만 건에 달하는 제품 안정성 및 성능 시험∙인증을 보다 공정하고 청렴하게 진행할 것임을 약속했다. 이번 KTL의 경영위원회와 같이, 시험인증산업 내 ESG 경영과 ESG 경영시스템 설계를 선도하는 국가기관의 행보는 국민과의 신뢰를 더욱 굳건히 만들 수 있을 것이다.
-
국표원, 인공지능 윤리 국가표준 제정해국가기술표준원은 ‘인공지능(AI) 윤리 점검 서식’에 대한 국가표준(KS)을 제정하고 AI 제품·서비스 관련 기업 등을 대상으로 14일 ‘AI 윤리 KS 제정 설명회’를 개최했다고 밝혔다. 전 세계적으로 생성형 AI 기술의 급속히 확산으로 AI 윤리 문제가 화두인 가운데 AI 윤리에 대한 첫 번째 KS가 제정됐다. 국표원은 2021년부터 산학연 전문가들이 참여하는 ‘AI 윤리 표준화 포럼’에서 논의와 검증 과정을 거쳐 해당 표준을 개발했다고 설명했다. 챗 GPT 등 생성형 AI 서비스의 확산과 함께 AI의 윤리적인 사용이 제기되는 시점에서 AI 제품·서비스 개발 시 필요한 윤리적 고려항목을 제시하고 자체 점검할 수 있는 체크리스트로 활용될 수 있다. 설명회에서는 AI의 개발자와 서비스제공자, 사용자가 쉽게 활용할 수 있도록 투명성·공정성·책임성 같은 윤리적 고려항목에 대한 자가 점검서식의 작성방법 소개와 실생활에서 활용도가 높은 챗봇·CCTV·교육서비스 등 표준 활용을 돕기 위한 10가지의 사용사례가 발표됐다. 또한 에스케이씨엔씨(SK C&C), 엘지전자, 위니아 등 기업의 KS 윤리 표준 적용방안도 공유됐다. 진종욱 국가기술표준원장은 “이번에 제정된 KS 윤리 표준은 민간 주도로 만들어져 기업이 자율적으로 쉽고 유용하게 활용할 수 있다는데 의미가 크다”며 “국내 AI 산업의 신뢰성을 강화하고 기업의 글로벌 시장 진출을 도울 수 있도록 AI 국제표준화도 적극 추진해 나가겠다”고 밝혔다.
-
[미국] 태양광산업협회(SEIA), ANSI로부터 공인표준개발기구로 승인미국 태양광산업협회(Solar Energy Industries Association, SEIA)에 따르면 미국국립표준협회(American National Standards Institute, ANSI)로부터 공인표준개발기구로 승인을 받았다.ANSI의 승인으로 SEIA는 새로운 표준을 재정할 수 있게 됐다. 태양광 공급망 전체 태양광패널(PV) 재활용 문제를 해결하고 윤리적 관행을 보장해 나갈 방침이다.SEIA는 공급망 추적성, 소비자 보호, 수명 종료 또는 성능기간 관리를 강화하는 표준을 포함해 태양광 및 저장 산업 관련 다양한 새로운 표준을 제정할 수 있다.따라서 고객과 기업, 규제기관, 투자자, 기타 이해관계자 간 신뢰를 구축하고 태양광을 더 안전하고 쉽게 개발 및 보급해 나갈 예정이다.강력한 국가표준은 모든 성공적인 산업의 기반이 될 수 있기 때문이다. 따라서 SEIA는 업계를 발전시키고 규정 준수 문화를 조성할 새로운 산업 표준을 제정해 나갈 계획이다.또한 SEIA는 미국의 태양광 및 저장 산업에서 원재료, 제품, 가공, 서비스를 위한 국가 표준을 개발하기 위해 업계 이해관계자들을 회의에 소집할 수 있다.SEIA의 국가표준 개발은 더 개방적이고 효율적인 시장을 조성해 업계 비용 절감 및 위험 최소 화등을 목표로 한다. 효율적인 표준 제정은 공급망 전체에 모범사례 적용을 촉진할 수 있다.생산자, 사용자, 일반 관심사 범주를 대표하는 SEIA 회원 및 비회원의 다양한 모임인 SEIA의 표준 기술 위원회(Standards Technical Committee)를 통해 다단계 합의 프로세스에 따라 새로운 표준을 개발해 나갈 예정이다.SEIA는 표준에 관심이 있거나 영향을 받는 광범위한 이해관계자의 표준 기술 위원회 참여를 환영한다. 표준 개발 과정에서 모든 의견을 수렴하기 위해 최선을 다하기 위함이다.SEIA의 첫 번째 표준 기술 위원회는 공급망 추적성에 초점을 맞춰 나갈 예정이다. 뿐만 아니라 2024년 초 첫 번째 미국 국가 표준을 발표하기로 결정했다.
-
경제협력개발기구(OECD) 국제 기술 토론회(글로벌 기술 포럼)에서 새로운 디지털 질서 선도자가 되다과학기술정보통신부(장관 이종호, 이하 ‘과기정통부’)는 OECD 글로벌 기술 포럼에 참석하여 한국의 새로운 디지털 질서를 공유했다. 글로벌 디지털 모범국가로서 새로운 디지털 규범을 선도할 수 있을 것으로 기대된다. 과기정통부는 송상훈 정보통신정책관을 수석대표로 6월 6일 프랑스 파리 경제협력개발기구(OECD) 본부에서 열린 OECD 글로벌 기술 포럼에 참석했다. 해당 포럼은 지난해 12월 스페인에서 개최된 OECD 디지털경제 장관회의에서 신설된 협의체다. 기술 발전에 따른 장기적 기회와 과제를 규명하고 신기술 정책 담론을 형성하는 역할을 수행한다. “기술 발전 최전방에서 우리의 미래 형성”(Shaping Our Future at the Tech Frontier)을 주제로 개최된 포럼은 몰입형 기술* 및 합성생물학**에 대한 심층토론을 다뤘다. *몰입형 기술: 물질적 세계와 가장된 세계와의 경계선을 흐릿하게 만드는 기술 **합성생물학: 기존 효소, 유전자 회로, 세포, 생물학적 시스템 등이 가지고 있던 특성을 변화시키거나, 자연에 존재하지 않던 특성을 새롭게 설계하고 제작하는 방법을 연구하는 분야 더불어 ▲인류의 보편적 가치에 기반한 책임감 있는 기술 개발 및 활용(분임1), ▲기후 변화 대응 및 회복력 있는 사회 촉진을 위한 신기술(분임2), ▲디지털 및 기술 격차(분임3)의 3가지 주제를 중심으로 기술 발전에 따른 경제·사회적 영향을 검토하는 다자이해관계자 간 분임토론이 진행됐다. 송상훈 정보통신정책관은 ‘책임감 있는 기술 개발 및 신기술의 사회적 신뢰도 제고’를 핵심주제로 내세우며 기술 개발에 대한 의견을 내고 한국 정책을 소개하였다. 「책임 있고 가치 기반의 권리 지향적 기술」 분임토론에서는 기조발표자로 참석하며 자유, 인권, 연대 등 인류 보편적 가치를 증진할 수 있는 모든 행위자의 책임감 있는 역할 수행 및 이를 통한 신기술의 사회적 신뢰도 제고가 필요하다고 강조했다. 또한 한국 주요 정책인 ‘메타버스 윤리원칙’, ‘인공지능 윤리원칙’을 소개하며 디지털 심화에 따른 새로운 쟁점에 대한 선제적 대응 정책의 필요성을 강조했다. 또한, 한국의 ‘새로운 디지털 질서 정립방안’의 주요 정책인 「디지털 권리장전」 마련 계획 및 폭넓은 사회적 공론화를 위한 민·관 협의체 구성 계획을 밝히며 새로운 한국형 디지털 질서를 소개했다. 이번 포럼을 통해 한국의 새로운 디지털 질서를 OECD 회원국과 공유할 수 있었으며, 이를 통해 디지털 질서의 선도자로 나아갈 발판을 마련하고 향후 규범 논의에서 한국의 입장과 정책의 반영도를 높이는데 기여하였다.
-
[미국] 국제연합(UN)의 인공지능(AI) 윤리 프레임워크 채택최근 일본 히로시마에서 개최된 G7 회의에 참석한 각국 지도자들은 인공지능(Artficial Intelligence, AI) 기술에 대한 국제 표준의 제정과 더 강력한 방호책을 요구했다.AI에 대한 규제가 뜨거운 감자로 부상하면서 기술기업 최고경영자(CEO)부터 미국 상원의원에 이르기까지 많은 사람이 이와 같은 목소리에 동참하고 있다.특히 생성형 AI가 해로움을 불러올 수 있다는 사실을 보여주고 있다. 또한 생성형 모델이 잘못된 정보를 생성하는데 사용되고 스팸 및 사기 도구로 무기화될 수 있다는 점도 우려를 낳고 있다. 따라서 국제적으로 AI를 규제하려는 다양한 시도 중 6가지의 규제 내용과 특징들을 살펴 볼 예정이다.마지막 여섯 번째는 193개국을 회원으로 두고 있는 국제연합(United Nations)의 인공지능(AI) 윤리 프레임워크 채택이다.UN은 인공지능에 관한 지원과 글로벌 조정을 촉진할 수 있는 국제기구와 같은 조직이 되는 것이 목표다. 따라서 2021년 신기술사절단을 조직했다.UN 기구인 유네스코(United Nations Educational, Scientific and Cultural Organization, UNESCO)와 회원국은 자발적으로 AI 윤리 프레임워크를 채택했다.윤리 프레임워크는 회원국이 △AI에 대한 윤리적 영향 평가 도입 △AI의 환경 영향 평가 도입 △AI의 성평등 촉진 보장 △대량 감시용 사용 금지 보장 등에 대한 내용을 포함하고 있다.UN이 AI 정책에 영향을 미칠 수 있었던 의미 있는 장소는 남반구 국가다. 유네스코 AI 윤리 프레임워크는 서방이 OECD 원칙에 전념하는 동안 AI 윤리를 처음 접하는 개발 도상국에 막대한 영향을 끼쳤다.특히 서구 AI 윤리 논의에서 대체로 배제됐던 중국과 러시아도 원칙에 서명했다. 회원국이 진심으로 자발적이고 윤리적인 가이드라인을 따를 것인지 방법의 문제가 부상하고 있다.중국과 러시아를 포함한 많은 국가가 AI를 사람을 감시하는데 사용해 왔기 때문이다. UN은 글로벌 기술 조정의 첫 번째 시도가 실패로 돌아간 사례가 있다.기술 특사로 선택된 외교관이 괴롭힘, 성희롱 스캔들로 임명된지 5일만에 물러났기 때문이다. 또한 수년간 킬러 로봇으로 알려진 치명적인 자율 드론에 대한 규칙을 마련하려던 시도는 큰 진전 없이 답보 상태에 머물러 있다.
-
[스웨덴] 국제표준화기구(ISO) 등 표준 설정기관의 AI 관련 기술산업표준 개발최근 일본 히로시마에서 개최된 G7 회의에 참석한 각국 지도자들은 인공지능(Artficial Intelligence, AI) 기술에 대한 국제 표준과 더 강력한 방호책을 요구했다.AI에 대한 규제가 뜨거운 감자로 부상하면서 기술기업 최고경영자(CEO)부터 미국 상원의원에 이르기까지 많은 사람이 이와 같은 목소리에 동참하고 있다.특히 생성형 AI가 해로움을 불러올 수 있다는 사실을 보여주고 있다. 또한 생성형 모델이 잘못된 정보를 생성하는데 사용되고 스팸 및 사기 도구로 무기화될 수 있다는 점도 우려를 낳고 있다.따라서 국제적으로 AI를 규제하려는 다양한 시도들 중 6가지의 규제 내용과 특징들을 살펴 볼 예정이다. 국제적인 AI 규제와 관련해 다섯 번째로 살펴볼 내용은 기술산업표준(Technical industry standards)이다.국제표준화기구(International Organization for Standardization, ISO)는 기업이 위험을 관리하고 영향을 평가하며 AI 개발을 관리하는 방법에 관한 표준을 개발했다.이러한 표준은 기업이 복잡한 규정을 실질적인 조치로 전환하는데 도움이 된다. 국가가 AI에 대한 개별 법률을 제정하기 시작함에 따라 표준은 기업이 법적 규제 하에서 운용되는 제품을 개발하는 것을 지원하기 때문이다.유럽연합(EU) 역시 AI 법(ACT)이 통과될 예정이며 특정 기술 표준을 충족하는 기업은 자동적으로 법을 준수하게 된다.이미 AI와 관련된 표준은 많이 있지만 향후 더 많은 표준이 제정될 예정이다. 표준 제정기관의 기술 표준은 기업이 따를 수 있는 규정을 간단한 규칙으로 변환하는데 있어 점점 더 중요한 역할을 수행하고 있다.대부분의 표준은 일반적이며 다양한 산업에 적용된다. 따라서 기업은 특정 분야에서 표준을 적용할 수 있도록 상당한 전환 작업을 수행해야 된다.이는 중소기업에 큰 부담이 될 수 있으며 기술 전문가와 엔지니어가 윤리적 위험에 대한 규칙을 작성해야 된다는 논란이 있다.또한 많은 사람들은 정책입안가들이 산업 표준 개발을 위한 모범 사례에 관해 어려운 질문들 단순하게 던질 것이라고 우려한다.
-
국표원, 인공지능 표준화 전략 마련 착수국가전략기술 중 하나인 인공지능(AI) 기술에 대한 표준화 전략 마련이 추진된다. 산업통상자원부 국가기술표준원은 23일 산·학·연 인공지능 표준전문가들이 참여한 가운데 인공지능 국제표준화 전략 워크숍을 개최했다. 이번 워크숍에서는 지난 4월 독일에서 열린 인공지능 ISO 국제표준화 회의(ISO/IEC JTC1 SC42)에서의 주요 활동 성과가 발표됐다. 우리나라는 인공지능 모델링시 처리비용 절감을 가능하게 하는 경량화 프레임워크, 인공지능에서 사용자 요구사항에 적합한 결과를 산출할 수 있도록 하는 추론에 대한 프레임워크 등 신규 국제표준안 5건을 발표했고, 국제전문가 지지를 확보하여 10월 오스트리아에서 열리는 인공지능 ISO 국제회의에서 정식 표준안을 제출할 예정이다. 또한 유럽연합(EU)에서 발의한 AI법안과 미국 등 국제표준화 동향, 올해 초부터 부각된 챗GPT 같은 초거대 AI의 발전 전망 등이 발표됐다. 워크숍에 참석한 전문가들은 인공지능 표준화 전략 방안 논의를 통해 인공지능 기술이 적용된 다양한 제품, 서비스 산업을 지원하는 표준 개발과 국제표준 리더십을 확보해 나갈 것을 제안했다. 국표원은 민간 표준전문가들과 함께 표준화 협의체 활동을 강화하고, 인공지능 연구개발(R&D)과 표준연계, 스마트제조·자율차 등 산업과 연계한 표준 개발, 인공지능 윤리 관련 표준 개발을 추진하고, 이를 이행하는 표준화 기반 조성 등에 대한 전략을 올해 안에 마련하기로 했다. 진종욱 국표원장은 “지난 5월초 미국이 핵심 신기술에 대한 표준전략을 발표한 것처럼 국제적으로 기술표준 주도권 경쟁이 치열해지고 있다”며 “민관이 함께 인공지능 표준화 전략을 마련하고 국제표준화를 선도할 수 있도록 뒷받침해 나가겠다”고 밝혔다.
-
[미국] 커뮤니티 재단(Community Foundation), 자선재단의 우수성에 대한 국가 최고 표준으로 재인증 획득미국 비영리기관인 커뮤니티 재단(Community Foundation)에 따르면 자선재단의 우수성에 대한 국가 최고 표준으로 재인증을 받았다.커뮤니티 재단은 웨스트 센터럴 일리노이즈(West Central Illinois) 및 노스이스트 미조리(Northeast Missouri)를 지원하고 있다.재단에 대한 국가 표준은 모든 지역에서 커뮤니티 재단을 위한 합법적이고 윤리적이며 효과적인 관행을 수립하고 있다. 또한 국내에서 자선 재단을 위한 최초의 프로그램이다.국가 표준 체계를 충족하려면 엄격하고 포괄적인 프로세스를 갖춰야 한다. 인증은 커뮤니티 재단이 임무를 수행하며 투명성, 품질, 무결성, 책임에 대한 약속을 입증했음을 나타내는 중요한 성과다.2006년 최초로 인증을 획득했다. 커뮤니티 재단 프로그램을 위한 국가표준에 의해 요구되는 표준을 지지하고 있다.표준은 커뮤니티 재단이 기부 서비스, 투자, 보조금 지급, 관리에 대한 정책을 문서화 하도록 요구한다. 또한 프로그램은 법률 및 재정 고문 뿐 아니라 기부자에게 품질 보증을 제공하도록 설계됐다.커뮤니티 재단은 다양한 자선 기금을 제공해 기부자가 대의를 발전시키기 위해 개별 조직을 지원한다. 지역 사회가 필요한 지원을 모색하거나 개별 보조금을 추천한다.커뮤니티 재단 국가 표준 위원회(Community Foundations National Standards Board)는 재단 위원회 지원 조직이다. 국가 표준을 준수하고 품질, 가치 및 무결성을 담당한다.
-
HCT, 호서대와 ‘윤리적 동물실험’ 문화 개선 나선다시험인증·교정산업기업 에이치시티와 안전성평가기관 에이치엔에이치바이오, 그리고 호서대학교가 동물실험 문화 개선에 나선다. 에이치시티는 전날 호서대 아산캠퍼스에서 에이치엔에이치바이오, 호서대 동물실험윤리위원회와 ‘동물실험윤리’ 관련 업무협약을 체결하고 실험동물의 복지를 개선해 나가기로 했다고 26일 밝혔다. 에이치시티는 작년 바이오산업 신성장동력 확보를 위해 호서대와 CRO 합작법인 에이치엔에이치바이오를 설립해 인체 및 환경분야 안전성 평가 전문 연구기관으로 발돋움하고 있다. 국제적인 평가기관 도약을 위해 미국 지사 내 실험실 구축도 추진중이다. 에이치시티는 이번 협약을 통해 농림축산검역본부 및 식품의약품안전처에서 제정한 동물실험윤리위원회(IACUC) 표준 운영 가이드라인을 준수하는 실험실 관리체계를 확립하고, 27일 전면 시행되는 동물보호법을 적극 준수해 실험동물의 복지 향상과 윤리적 동물실험 문화를 정착시켜 나간다는 계획이다. 특히 동물실험과 연구활동에서 새로운 표준을 마련해 제안한다는 구상이다. 권용택 에이치엔에이치바이오 대표이사는 “의약품, 화학물질, 농약 등 안전성 평가 분야 우수 실험실 운영기준(GLP) 인증을 준비했던 노하우를 바탕으로 실험동물의 복지 향상과 과학적 이용, 윤리적인 취급에도 모범적인 기업으로 자리매김할 수 있도록 호서대 동물실험윤리위원회와 함께 협력해 나가겠다”고 밝혔다. 강일구 호서대 총장은 “국가 미래산업의 주축이 될 바이오분야에 대한 인프라 강화 및 성과 도출을 위해 과감한 투자 및 지원을 아끼지 않고 있다”며 “강화된 동물보호법을 준수함으로써 동물실험이 윤리적으로 운용될 수 있도록 동물실험윤리위원회의 위상을 구축해 나가겠다”고 말했다.
-
초거대·생성형 인공지능 시대, 인공지능 윤리정책 방향에 대한 사회적 논의 개시챗지피티(ChatGPT) 등 초거대·생성형 인공지능 확산에 대응하여 인공지능 윤리와 신뢰성을 확보하기 위하여 과기정통부는 학계, 산업계, 법조계, 교육계 전문가와 함께 인공지능 윤리정책 포럼을 구성하여 관련된 사회적 논의를 본격적으로 시작한다. 과학기술정보통신부(장관 이종호, 이하 과기정통부)는 정보통신정책연구원(원장 권호열, 이하 KISDI)과 한국정보통신기술협회(회장 최영해, 이하 TTA)와 함께 4월 7일(금) 서울 서초구 엘타워에서 ‘제2기 인공지능 윤리정책 포럼’ 출범식을 개최하였다. ※ 제1기 인공지능 윤리정책 포럼(‘22년)은 유네스코 윤리권고 등 주요 이슈에 관한 논의와 자율점검표·개발안내서 등 주요 정책과제에 대해 사회 각계가 참여하는 공론의 장 제공 오늘 출범한 제2기 인공지능 윤리정책 포럼에서는 지난해 의견수렴을 거친 ‘인공지능 윤리기준 실천을 위한 자율점검표(안)(챗봇, 작문, 영상 분야)’ 및 ‘신뢰할 수 있는 인공지능 개발안내서(안)(일반, 공공사회, 의료, 자율주행 분야)’를 공개하였고, 초거대·생성형 인공지능의 확산에 따라 거짓정보의 확산, 알고리즘의 편향성, 사생활 침해 등 부정적 영향에 대한 각종 우려가 제기되고 있는 상황에서 인공지능 윤리·신뢰성 확보를 위해 필요한 정책 방향에 관한 종합토론을 진행하였다. 향후 지속적인 포럼을 통해 관련 기술 및 윤리 이슈에 대한 국내·외 동향을 살피고 윤리적이고 신뢰할 수 있는 초거대·생성형 인공지능이 개발·운영될 수 있도록 균형잡힌 시각에서 우리나라 인공지능 윤리정책 방향을 제시하고, 신뢰성 검·인증 체계 구축 등 주요 관련 정책과제에 대한 의견수렴을 진행해 나갈 계획이다. 이를 위해, 김명주 서울여자대학교 정보보호학과 교수가 포럼위원장을 맡고, 인공지능, 철학, 교육, 법, 행정 등 분야별 전문가를 비롯해 인공지능 산업계 종사자까지 포함하여 총 30명이 포럼위원으로 활동한다. 포럼은 운영의 효율성과 논의의 전문성을 높이기 위해 3개의 전문분과위원회로 구성하여, ①인공지능 윤리체계 확산(이하, 윤리분과), ②인공지능 신뢰성 확보 기술 기반 마련(이하, 기술분과), ③인공지능 리터러시 및 윤리교육 강화(이하, 교육분과)의 큰 주제 안에서 세부적인 논의를 진행할 계획이다. 윤리분과(분과장 문정욱 KISDI 지능정보사회정책센터장)는 초거대·생성형 인공지능의 편향성, 허위정보 등 역기능 대응 방안, 책임성·투명성 확보 방안 등에 대해 논의하고 ‘인공지능 윤리영향평가 프레임워크’ 개발에 대한 의견수렴을 진행할 계획이다. 기술분과(분과장 이강해 TTA AI디지털융합단장)는 초거대·생성형 인공지능의 위험요소 도출 및 신뢰성 확보를 위한 평가 데이터 구축과 기술 확보 방안 등 기술적인 쟁점을 논의하고, ‘인공지능 신뢰성 검·인증 체계’ 수립에 대한 의견수렴을 진행할 예정이다. 특히 ‘22년도에 인공지능 기업대상으로 컨설팅을 진행하여 신뢰성 확보 여부를 진단하고 편향성 완화를 위한 보호변수 고려 및 성능 악화시 기능적·절차적 대책 마련 등의 개선사항을 제시한 바 있으며, 향후 포럼 운영과정에서 개선실적에 대해 확인 및 검토해나갈 예정이다. 교육분과(분과장 변순용 서울교대 윤리교육과 교수)는 초거대·생성형 인공지능의 악의적 사용을 완화·방지하기 위한 윤리적 활용방안 등 교육 관련 쟁점을 논의하고, 일반인 대상 인공지능 윤리교육 콘텐츠 개발에 대한 의견수렴을 진행할 예정이다. 출범식에 참석한 과기정통부 엄열 인공지능기반정책관은 “초거대·생성형 인공지능이 산업과 우리 일상 속으로 빠르게 확산되고 있는 상황에서 무엇보다도 기술의 개발부터 활용의 전 단계에서 사회적 신뢰를 확보하는 것이 선행되어야 한다”고 강조하며, “제2기 인공지능 윤리정책 포럼이 인공지능 생태계에 속하는 다양한 이해관계자의 의견을 수렴하여 인공지능 윤리정책의 방향에 관한 사회적 합의를 마련하는데 기여하고, 인공지능 윤리와 신뢰성을 확산하여 관련 기술·산업 기반을 조성하는데 중추적 역할을 수행해주기 바란다.”고 당부했다.