[기획 브리핑] 글로벌 AI 규제 동향으로 살펴보는 오픈소스 모델의 역할과 도전과제
support
게시글 작성 시각 2024-10-27 22:10:42
[기획 브리핑] 글로벌 AI 규제 동향으로 살펴보는 오픈소스 모델의 역할과 도전과제
- Open UP -
- AI 기술 발전에 따라 여러 사회적 문제와 인간의 통제를 벗어난 위험 상황 초래 등의 문제도 대두되면서 AI의 오용과 위험을 최소화시키기 위해 주요 국가들은 AI 규제법을 도입 또는 도입 검토 중
- 세계 최초의 포괄적인 AI 법률 EU의 AI 법은 오픈소스 라이선스에 따라 공개된 모델은 모든 의무에서 면제하는 예외 규정이 있음
- 이 예외는 ‘허용할 수 없는 위험’이 있는 AI와 ‘체계적 위험(systemic risks)’이 있는 범용 AI 모델과 상업적인 목적으로 수익화된 오픈소스 AI 모델은 적용되지 않음
- 미국 캘리포니아에서 주정부 차원의 AI 안전법(SB-1047)을 추진하였으나 최종적으로 주지사의 거부권 행사로 법안 폐기
- 오픈소스 오리지널 모델과 그 파생 모델(오픈소스 모델을 미세 조정하는 데 1천만 달러 미만의 비용이 든 모델)의 경우 원 개발사에게 책임을 묻는 조항이 있어 오픈소스 위주로 AI를 취급하는 업계와 학계가 강력 반발하였음
- 세계 최초의 포괄적인 AI 법률 EU의 AI 법은 오픈소스 라이선스에 따라 공개된 모델은 모든 의무에서 면제하는 예외 규정이 있음
- AI 기술, 멀티모달 모델로 확장되며 오픈소스 AI 모델을 통해 기술 혁신 가속화
- AI 기술은 단순한 텍스트 대화를 넘어 이미지·영상·음성 분석 및 생성 가능한 멀티모달 모델로 확장하고 있으며 누구나 접근하고 활용 가능한 오픈소스 AI 모델에 의해 가파르게 성장 중
- 향후 5년 내에 큰 영향을 미칠 잠재력이 있는 기술에 ‘멀티모달 생성형 AI’와 ‘오픈소스 LLM’을 선정(‘24, Gatner)
- 가트너는 오픈소스 LLM이 상업적 접근을 민주화하고 개발자가 특정 작업 및 사례에 맞게 모델을 최적화할 수 있도록 하며, 기업, 학계 및 기타 연구 역할의 개발자 커뮤니티에에서 가치 향상을 위한 공통 목표를 향해 모델 개선 가능한 액세스를 제공한다고 설명
- 오픈소스는 AI 알고리즘 및 데이터셋에 대한 접근을 민주화함으로써 각 국가별 자국의 문화 및 언어가 담긴 AI 시스템 구축 가능하게 함
- 오픈소스 생태계가 활발하면 AI의 투명성도 늘어나고 AI의 기술도 발전하여 개발자들이 AI에 기여하고 개선하며 비판할 수 있는 기회 제공
- 다양한 이점들에도 AI의 기술 발전과 함께 개인정보 유출, 차별과 편견, 일자리 감소, 딥페이크와 같은 악용 사례, 인간 통제의 한계를 넘는 위험한 상황 등 다양한 사회적 문제가 대두되고 있음
- 최근 딥페이크 범죄 등이 문제가 되고 있는 상황임
- AI 기술을 개발하고 활용하는 과정에서 이러한 문제를 해결하기 위한 가이드라인이 필요하다는 의견 대두
- 향후 5년 내에 큰 영향을 미칠 잠재력이 있는 기술에 ‘멀티모달 생성형 AI’와 ‘오픈소스 LLM’을 선정(‘24, Gatner)
- AI 기술은 단순한 텍스트 대화를 넘어 이미지·영상·음성 분석 및 생성 가능한 멀티모달 모델로 확장하고 있으며 누구나 접근하고 활용 가능한 오픈소스 AI 모델에 의해 가파르게 성장 중
- AI 기술의 급격한 발전으로 인해 규제의 필요성이 증가함에 따라 EU AI법 등 주요 국가들 AI 규제안 마련
- 1) 유럽연합(EU)
- EU는 시민의 기본적 권리 보호와 유럽 사회의 안전 확보를 목표로 하는 세계 최초의 포괄적인 AI 법률 ‘AI Act’ 발표(‘24.07.12)
-
- AI법은 ‘21년 4월 21일에 유럽위원회에서 제안, ’24년 3월 유럽의회 통과, 5월 EU 이사회 승인, 7월 AI 법률로 공식 발표
- EU AI 법은 지침이 아닌 규정으로, 개별 국가의 법률과 상관없이 회원국에 직접 효력이 발생
- 이 법은 ’24년 8월 1일에 발효되었으며, 각 조항별로 '허용할 수 없는 위험'을 초래하는 AI 시스템 전면 금지 시행(‘25.02), AI법 실무 강령도입(‘25.05), 범용 AI (GPAI, General-Purpose AI models)에 대한 규칙 발효(’25.08), AI 시스템을 위한 AI법률 시행(’26.08) 등 단계적으로 시행되어 ’27년 8월 AI법 전면 시행 예정
- EU AI 법은 고위험 AI 시스템의 기술 문서 공개, 데이터 세트 투명성, 정기적인 모니터링, 감사 관련 요구사항 준수 등을 요구
- 사용 사례나 위험 수준에 관계없이 모든 AI 시스템에 적용되는 의무 사항
- AI 시스템 제공자는 EU 데이터베이스에 해당 시스템을 등록
- 인간과 직접 상호 작용하는 AI 시스템은 사용자가 AI 시스템과 상호 작용한다는 사실을 인지할 수 있도록 설계하고 개발
- AI 시스템 제공자는 합성 콘텐츠를 생성하는 AI 시스템의 결과물이 기계 판독 가능 형식으로 합성 콘텐츠임이 표시
- (AI 분류) 다음과 같이 4가지 위험과 범용 AI로 정의
-
AI 분류 정 의 허용할 수 없는 위험 - 규정 내에서 가장 높은 위험 수준으로 허용할 수 없는 것으로 지정된 AI 시스템은 새로운 규정에 따라 EU에서 금지
- 사람들의 안전, 생계, 권리에 대한 명확한 위협을 가하는 모든 AI 시스템(예:무의식적으로 행동을 왜곡하는 기술, 특정 취약 계층을 악용하는 AI, 사람들을 사회적 행동을 평가하는 AI, 감정 추론 AI 등)
고위험 - "고위험"으로 지정된 모든 AI 시스템은 EU 시장에 출시되기 전에 품질 보증을 포함한 엄격한 규칙 적용
- 건강, 안전, 권리, 환경, 민주주의 및 법치주의를 해칠 가능성이 있는 AI 시스템(예: 중요한 국가 인프라, 사법 행정, 민주적 절차 및 이와 유사한 분야에서 사용하는 AI, 의료 기기 및 중요 인프라 관리 도구 등)
제한적 위험 - 제한적 위험으로 분류된 AI 시스템은 개인이 AI 시스템이나 콘텐츠와 상호작용할 때 다양한 투명성 요구 사항이 적용
- 자연인과 상호작용하도록 설계된 시스템과 합성 콘텐츠를 생성하는 AI 시스템(예: 챗봇(소셜 메시징 봇, 메뉴 봇, 키워드 봇 등) 및 딥페이크, 가상 비서 등)
저위험 - 규정 내 가장 낮은 위험 수준으로 EU에서 대부분의 AI 사용은 이 범주에 속하며, 개발자와 사용자는 AI 법에 따라 최소한의 의무 적용
- 이미 널리 배포되어 있고 EU AI법에 따라 규제되지 않는 AI 시스템(예 : AI 지원 스팸 필터 및 AI 지원 비디오 게임(플레이할 수 없는 캐릭터)과 같은 애플리케이션에서 AI 사용하는 것이 포함) 등)
범용 AI 시스템 - 투명성 의무(기술 문서 및 배포자 문서 제공 등)가 있으며 체계적 위험을 초래하는 경우 제공자는 모델에 대한 적대적 테스트 평가, 위험 평가 및 완화, 적절한 수준의 사이버 보안 조치 보장 등 수행
- 범용 AI 모델 중 시장에 출시되기 전에 연구, 개발 또는 프로토타입 제작 활동에 사용되는 AI 모델은 제외함
- 방대한 양의 데이터로 훈련되고 상당한 일반성을 보이며 광범위한 용도의 AI 시스템(OpenAI의 ChatGPT와 Google의 Gemini를 구동하는 GPT-4o 및 Gemini 1.5와 같은 대규모 언어 모델이 포함)
- (적용) EU 시장에서 사용하는 AI 시스템을 공개하는 모든 기업(개발/배포/ 공급/사용/수입/유통 업체 등)은 반드시 규정을 준수해야 함
- (위반 처벌) 이 법을 위반할 경우 불이행의 심각도에 따라 벌금으로 부과되며 최대 전 세계 매출의 7%까지 벌금으로 부과 받을 수 있음
-
- EU AI법은 오픈소스 예외 규정을 두고 있으며 이는 개방성과 투명성을 지닌 오픈소스 모델의 규제를 유연하게 적용함으로써 오픈소스를 통한 AI 혁신을 촉진할 수 있는 창구를 열어두어 EU 내 AI 산업의 경쟁력을 유지하려는 의도를 반영
-
- 프랑스와 독일 등 범용 인공지능(GPAI) 규제를 반대했던 국가들은 주요 기업이 오픈소스 모델을 개발하고 있음
- EU AI법 내 오픈소스AI는 오픈소스 라이선스(free and open source licence) 하에 공개되고 사용자들이 자유롭게 접근, 사용, 수정 및 수정된 버전이 재배포 가능한 소프트웨어와 데이터(모델 포함)로 정의
- 오픈소스 라이선스 하에 공개된 범용 AI 모델은 그 파라미터(가중치 포함), 모델 아키텍처에 대한 정보, 모델 사용에 대한 정보가 공개된다면 높은 수준의 투명성과 개방성을 보장하는 것으로 간주함
- 사용자가 소프트웨어와 데이터를 실행, 복사, 배포, 연구, 변경 및 개선할 수 있도록 허용하는 라이선스 경우에도 오픈소스로 간주함
- 오픈소스 AI 구성 요소(AI 시스템의 소프트웨어와 데이터, 모델, 도구, 서비스, 프로세스 포함)는 오픈 저장소 개발을 포함한 다양한 채널을 통해 제공
- 또한, 오픈소스 라이선스에 따라 공개된 모델은 모든 의무에서 면제한다는 오픈소스 예외 규정 명시
- 이러한 예외는 허용할 수 없는 위험이 있는 AI시스템(제5조)과 "체계적 위험(systemic risks)"이 있는 범용 AI 모델(제51조)에는 적용되지 않음
- 이 법규의 목적상 상업적인 목적으로 수익화된 오픈소스 AI 모델은 규제 대상으로 제공되는 오픈소스 예외의 혜택을 받을 수 없음(103항)
- 적절한 기술 도구와 방법론, 지표 및 벤치마크를 포함하여 평가된 "높은 영향력이 있는 능력(high impact capabilities)"을 갖춘 범용 AI 모델을 출시하는 경우는 오픈소스인지 여부와 관계없이 규정을 준수해야 함
-
- 이러한 EU AI법의 '오픈소스'로 간주되는 것에 대한 정의의 복잡성과 모호함이 오픈소스 운동의 기본 원칙과 일치하지 않는 제한을 부과할 수 있어 혁신을 저해할 수 있다는 주장도 있음
- 메타(Meta)는 EU의 AI 규정이 오픈소스 AI에 방해되어 AI 업계의 혁신과 발전을 저해한다고 발표
- 메타와 스포티파이(Spotify)의 CEO는 EU의 AI 관련 규정에 관한 공동 성명을 통해 유럽의 혁신과 경쟁력, 특히 오픈소스 AI에 방해가 될 수 있다고 주장
- 오픈소스 AI가 AI에 대한 접근을 민주화하고 소규모 기업과 개발자가 저렴한 비용으로 최신 기술의 혜택을 누릴 수 있도록 하는 데 필수적이라고 강조하며,
- 두 회사 모두 불분명하고 복잡한 규칙에 기반을 두고 있는 규정과 이를 준수하는 방법에 대해 일관되지 않은 지침으로 인해 개발자의 불확실성이 커지고 기술 발전을 방해할 수 있다고 주장
- 메타는 유럽에서 멀티모달 기반 3세대 오픈소스 AI 모델인 '라마3'를 출시 예정이었으나 범용AI에 대한 EU의 강도 높은 규제로 출시 보류
- 메타는 AI 모델을 무료로 배포하는 오픈소스 전략으로 인해, 사용 기업이 학습한 데이터를 파악하기 어려워 EU 규제를 충족하기 힘든 상황
- 메타의 AI 기술을 활용하고자 한 스포티파이와 같은 회사도 이를 활용한 제품 업데이트를 할 수 없게 됨
- 메타(Meta)는 EU의 AI 규정이 오픈소스 AI에 방해되어 AI 업계의 혁신과 발전을 저해한다고 발표
- EU는 시민의 기본적 권리 보호와 유럽 사회의 안전 확보를 목표로 하는 세계 최초의 포괄적인 AI 법률 ‘AI Act’ 발표(‘24.07.12)
- 2) 미국
- 미국은 EU AI법과 같이 연방정부 차원의 통합된 AI 규제법은 제정하지 않았으나 안전하고 신뢰할 수 있는 인공지능 개발 및 사용 행정명령 제14110호(Executive Order 14110: Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence) 발표(’23.10)
- 이 행정 명령은 8가지 지침 원칙과 우선순위를 제시하고, 이러한 원칙과 우선순위를 어떻게 시행해야 하는지, 보고 요구 사항을 자세히 설명
- 미국 NIST(국립표준기술원)는 인공지능 위험 관리 프레임워크: 생성 인공지능 프로필(NIST-AI-600-1)을 출시(’24.07)
-
- 바이든 대통령의 행정명령을 뒷받침하는 리소스로 AI 개발자와 사이버 보안 전문가를 위한 가이드임
-
- 캘리포니아 주는 AI가 오용될 가능성을 감소시키는 역할을 위해 주 정부 차원의 AI 안전 법안(SB-1047, Safe and Secure Innovation for Frontier Artificial Intelligence Models Act.)을 마련(’24.09)하여 추진하였으나, 주지사의 거부권 행사로 최종적으로 폐기
-
- 이 법안은 올해 2월 발의 직후부터 많은 사회적 관심을 받았고, 몇 차례 수정을 거쳐 지난 8월 주 상·하원을 압도적 찬성으로 캘리포니아주 의회 통과(‘24.08.28)
- 뉴섬 캘리포니아 주지사가 동의 서명하면 공식 발효될 예정이었으나 최종적으로 주지사는 9월 29일 거부권을 행사하여 폐기되었음
- SB-1047 법안은 첨단 AI 모델을 개발하는 기업, 특히 개발 비용이 1억 달러 이상(약 1천376억원)이거나 상당한 컴퓨팅 파워를 사용하는 기업이 판매 전 중대한 위험에 대한 테스트를 반드시 거치도록 의무화
- AI 개발사는 모델 훈련 과정서 발생할 수 있는 위험을 사전에 평가, 필요 시 신속하게 모델을 중단하는 '킬 스위치' 기능을 명시 필요
- 5억 달러(약 6천 890억원) 넘는 피해 발생 가능성이 있는 사이버 보안 공격 시행 또는 생물학·핵무기를 개발할 수 있는 능력의 AI 모델 개발 금지
- 오픈소스 관련된 규정으로 오픈소스 오리지널 모델과 그 파생 모델(오픈소스 모델을 미세 조정하는 데 1천만 달러 미만의 비용이 든 경우)의 경우, 원 개발사가 책임을 져야 한다고 명시
- 즉, 오픈소스 적용 모델을 미세 조정하는 데 1천만 달러 이상의 비용이 든 파생 모델의 개발사는 이 법의 적용 대상에 포함됨
- 캘리포니아 SB-1047 법안은 오픈소스 모델의 특성상 책임의 경계가 명확히 구분하기 어렵기 때문에 이 법안은 개발 비용과 모델의 활용 범위에 따라 책임을 나누고자 했으나 업계와 학계는 혁신을 저해할 수 있다는 우려를 표명
- 캘리포니아 SB-1047 법안에 대해 의견을 밝힌 전체 기술 기업 중 74% 이상이 반대 의사 제시
- 구글과 메타를 비롯한 주요 기업은 이 법안이 비우호적인 규제 환경을 조성하고 AI 발전을 저해할 수 있다고 우려하였으며, 오픈AI는 AI 법안이 혁신을 억압하고 기업들을 캘리포니아에서 떠나게 할 것이라고 주장
- 오픈소스 모델을 활용하여 AI를 취급하는 스타트업 업계와 학계 등 법안에 강력하게 반발하였으며, 일부 민주당 의원들도 이 법안이 공개적으로 사용가능한 코드에 의존하고 AI 기술 발전에 필수적인 것으로 간주되는 오픈소스 AI 모델을 위태롭게 할 수 있다고 우려
- 뉴섬 주지사는 SB 1047 법안 이외의 생성형 AI 기반 허위 정보, 가짜 음성, 딥페이크 등을 막기 위한 법안에는 서명, 발생 가능성 높은 위험에 우선 대비하는 행보를 보임
- 뉴섬 주지사는 SB 1047 법안에 대한 거부권 행사 이유로 이 법안이 고위험 환경, 중요한 의사 결정, 민감한 데이터 사용 여부를 고려하지 않았고 대규모 AI 모델에만 초점을 맞추어 소규모 특수 시스템은 제외함으로써, 대중에게 AI 기술 통제에 대한 잘못된 안도감을 줄 수 있다고 언급
- 앞서 미국 샌프란시스코에서 개최된 '드림포스 2024'에서 뉴섬 주지사는 SB 1047 법안에 대해 AI로부터 야기되는 모든 문제를 해결할 수 없다는 견해를 밝히며 "오히려 캘리포니아에서 급성장하는 AI 산업을 해치지 않으면서도 문제를 해결할 수 있는 유연한 법안에 더 관심 가질 것"이라고 강조한 바 있음
-
- 미국은 EU AI법과 같이 연방정부 차원의 통합된 AI 규제법은 제정하지 않았으나 안전하고 신뢰할 수 있는 인공지능 개발 및 사용 행정명령 제14110호(Executive Order 14110: Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence) 발표(’23.10)
- 3) 영국
- 영국 정부는 5가지 핵심 원칙(안전/보안, 투명성, 공정성, 책임성, 이의제기 가능성 및 구제)에 따라 AI 규제를 위한 부처 간 협력을 통해 결과에 초점을 맞춘 프레임워크를 채택
- 원칙 기반의 AI 규제 접근 방식을 개략적으로 설명하는 백서를 발표(’23.03)하였으며 이에 대한 정부의 대응안을 공개(‘24.02.)
- ICO(the Information Commissioner's Office), Ofcom, CMA(the Competition and Markets Authority), FCA(Financial Conduct Authority)와 같은 규제 기관은 각자의 영역에서 AI 적용에 대한 규제를 담당
- 2024~2025년까지 ChatGPT와 같은 진보된 AI 모델을 대상으로 하는 AI 법안을 준비중으로 정부 간의 기존 자발적 약속을 법적으로 구속력 있게 만들고 영국의 AI 안전 연구소를 중립적 정부 기관으로 전환하는 것을 목표로 함
- 영국 정부는 5가지 핵심 원칙(안전/보안, 투명성, 공정성, 책임성, 이의제기 가능성 및 구제)에 따라 AI 규제를 위한 부처 간 협력을 통해 결과에 초점을 맞춘 프레임워크를 채택
- 4) 중국
- 포괄적인 AI 법률이 없지만 AI의 다양한 측면과 관련된 위험을 해결하기 위해 법적 효력이 있는 규정과 조치를 도입하며 AI 기술에 특화된 규정을 형성하는 데 가장 적극적으로 활동 중임
- 인터넷 정보 서비스에 대한 알고리즘 추천 관리 규정(’22.03), 인터넷 정보 서비스의 심층 합성 관리에 대한 규정(‘23.01), 생성 AI 서비스 관리를 위한 임시 조치(’23.08)
- 포괄적인 AI 법률이 없지만 AI의 다양한 측면과 관련된 위험을 해결하기 위해 법적 효력이 있는 규정과 조치를 도입하며 AI 기술에 특화된 규정을 형성하는 데 가장 적극적으로 활동 중임
- 5) 일본
- 일본 정부는 모든 AI 관련 이해 관계자(AI 서비스 개발 기업, AI 서비스 제공자, 사용자 등 포함)를 대상으로 하는 ‘기업을 위한 AI 가이드라인’ 발표(’24.04)
- AI 가이드라인에는 인간 중심, 안전성, 공정성, 개인정보보호, 보안, 투명성, 책임성, AI 문해력, 공정경쟁, 혁신 등 10가지 기본 원칙을 포함
- 일본과 동남아시아 국가 연합(ASEAN)은 AI 거버넌스에 대한 두 관할권 간의 보다 큰 협력에 대한 약속을 포함하는 공동 성명을 채택(’23.12)
- 일본 정부는 모든 AI 관련 이해 관계자(AI 서비스 개발 기업, AI 서비스 제공자, 사용자 등 포함)를 대상으로 하는 ‘기업을 위한 AI 가이드라인’ 발표(’24.04)
- 6) 대만
- 대만은 AI를 관장하는 기본법, 즉 AI 기본법 초안을 발표(‘24.07), AI 연구 및 사용에 대한 7가지 기본 원칙을 제시, 대만 의회에서 검토될 것으로 예상
- 공고된 AI 기본법 초안에는 지속 가능한 개발과 웰빙, 인간의 자율성, 개인정보 보호 및 데이터 거버넌스, 보안 및 안전, 투명성 및 설명 가능성, 공정성과 차별금지, 책임성 7가지 기본원칙을 포함
- AI의 개발 및 적용에서 프라이버시와 개인 데이터를 보호할 필요성을 강조
- EU AI법 초안 및 2022년 미국 알고리즘 책임법 초안과 유사하게 위험 수준에 따라 AI를 규제할 것을 제안
- 대만은 AI를 관장하는 기본법, 즉 AI 기본법 초안을 발표(‘24.07), AI 연구 및 사용에 대한 7가지 기본 원칙을 제시, 대만 의회에서 검토될 것으로 예상
- 시사점
- 각 국가들은 잠재적인 AI 관련 위험으로부터 대중을 보호하는 동시에 혁신과 사회 안전의 균형을 맞추고 AI가 오용될 가능성을 감소시키기 위해 AI 규제법을 도입 또는 도입 검토중
- EU AI법의 오픈소스 예외 규정은 기술 혁신을 촉진하면서도 안전하고 책임 있는 AI 활용을 보장하려는 첫걸음으로, 규제와 혁신 간의 균형을 유지하기 위한 논의가 필요함을 시사
- 미국 캘리포니아의 SB-1047 법안은 오픈소스 모델에 대한 책임 소재를 명확히 규정하는 것이 현실적으로 가능한지에 대한 질문을 제기하며, 다양한 기여 환경 속에서의 책임 한계 설정에 대한 구체적 협의의 필요성 제기
- AI 기술의 급격한 발전을 고려할 때, AI 기술기업들은 이러한 규제 조치에 반발하기보다는 향후 AI 개발과 기업의 경영 활동을 위해 개발 정책과 경영 전략의 재조정 등 대응 방안에 대한 검토가 필요
※ 참고 Reference
- laying down harmonised rules on artificial intelligence and amending Regulations (Artificial Intelligence Act), EUR LEX Access to European Union law, 2024.07.13.,
https://eur-lex.europa.eu/eli/reg/2024/1689/ - What is the European Union Artificial Intelligence Act?, nccgroup, 2024.08.22.,
https://www.nccgroup.com/sg/the-eu-ai-act-pioneering-the-future-of-ai-regulation/ - EU AI Act Summary : Obligations and Exceptions for Businesses, winder.AI, 2024.08.07.,
https://winder.ai/eu-ai-act-summary-obligations-exceptions-businesses/ - Mark Zuckerberg and Daniel Ek on Why Europe Should Embrace Open-Source AI, Meta, 2024.08.23.,
https://about.fb.com/news/2024/08/why-europe-should-embrace-open-source-ai-zuckerberg-ek/ - Part 2 - AI regulation in the EU, RPC, 2024.10.04.,
https://www.rpclegal.com/thinking/artificial-intelligence/ai-guide/part-2-ai-regulation-in-the-eu/ - Part 3 - AI regulation in the US, RPC, 2024.10.04.,
https://www.rpclegal.com/thinking/artificial-intelligence/ai-guide/part-3-ai-regulation-in-the-us/ - Part 4 – AI Regulation in Asia, RPC, 2024.08.06.,
https://www.rpclegal.com/thinking/artificial-intelligence/ai-guide/part-4-ai-regulation-in-asia/ - Overview of AI Regulatory Landscape in APAC, 2024.04.29.,
https://www.globalpolicywatch.com/2024/04/overview-of-ai-regulatory-landscape-in-apac/ - China Releases New Draft Regulations on Generative AI, China Briefing, 2024.05.30.,
https://www.china-briefing.com/news/china-releases-new-draft-regulations-on-generative-ai/ - EU “AI 생체인식 악용 기술, 허용될 수 없는 위험” 11월부터 규제, 동아일보, 2024.03.15.,
https://www.donga.com/news/article/all/20240314/123980879/1 - 유럽연합(EU) 통과한 세계 최초 ‘AI 규제법’이 불러올 4가지 변화, 모비스라이브, 2024.04.24.,
https://mobislive.com/service/mobilityview.html?page=1&id=1490&code=60&category=%EB%AA%A8%EB%B9%8C%EB%A6%AC%ED%8B%B0&subcategory=&series= - EU 규제에…메타도 새 AI 유럽 출시 포기, 매일경제, 2024.07.18.,
https://www.mk.co.kr/news/it/11070688 - 안전하고 신뢰할 수 있는 인공지능 개발 및 사용 행정명령 제14110호(Executive Order 14110: Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence), 세계법제정보센터, 2024.02.07.,
https://world.moleg.go.kr/web/wli/lgslInfoReadPage.do?CTS_SEQ=51119&AST_SEQ=313 - 개발자·CISO 대상’… 美 국립표준기술연구소, AI 위험에 대한 새로운 가이드 발표, CIO, 2024.05.01.,
https://www.cio.com/article/3522271/%EA%B0%9C%EB%B0%9C%EC%9E%90%C2%B7ciso-%EB%8C%80%EC%83%81-%E7%BE%8E-%EA%B5%AD%EB%A6%BD%ED%91%9C%EC%A4%80%EA%B8%B0%EC%88%A0%EC%97%B0%EA%B5%AC%EC%86%8C-ai-%EC%9C%84%ED%97%98%EC%97%90.html - 美 캘리포니아 AI 안전법 'SB 1047' 통과…EU·국내 여파는?, ZDNet Korea, 2024.08.30.,
https://zdnet.co.kr/view/?no=20240830090502 - 미국과 영국의 AI 규제동향, 법률신문, 2024.02.29.,
https://www.lawtimes.co.kr/LawFirm-NewsLetter/196378 - 美 캘리포니아 AI 규제 법 제정 임박··· “기술 기업 다수 반대, 일부 전문가 찬성”, CIO Korea, 2024.08.30.,
hhttps://www.cio.com/article/3538199/%E7%BE%8E-%EC%BA%98%EB%A6%AC%ED%8F%AC%EB%8B%88%EC%95%84-ai-%EA%B7%9C%EC%A0%9C-%EB%B2%95-%EC%A0%9C%EC%A0%95-%EC%9E%84%EB%B0%95%C2%B7%C2%B7%C2%B7-%EA%B8%B0%EC%88%A0-%EA%B8%B0%EC%97%85-%EB%8B%A4.html
.
.
2024
0개 댓글