본문 바로가기 주메뉴 바로가기 푸터 바로가기

사이트맵


Book Mark
美 대규모 언어 모델을 둘러싼 법률적 문제와 인공지능 소프트웨어의 지재권 보호방안
  • 투자진출
  • 미국
  • 뉴욕무역관 김용하
  • 2023-06-30
  • 출처 : KOTRA

대규모 언어 모델의 이점과 한계

인공지능 소프트웨어는 특허, 저작권, 영업비밀로 보호받을 수 있어

지난 6월 22일 뉴욕 남부 연방지방법원 판사인 케빈 카스텔(Kevin Castel)은 인공지능이 생성한 존재하지 않는 판례들을 인용한 법률 문서를 제출한 두 명의 개인 상해 전문 변호사들에게 징계 처분을 내렸다. 그들이 자신들의 업무를 점검할 의무를 저버렸고 자신들의 행동을 털어놓을 때까지 몇 주가 걸렸다는 점에서 ‘나쁜 의도’를 가졌다고 보았기 때문이다. 카스텔 판사는 이 두 명의 변호사가 챗 지피티를 썼다는 것에 대하여 빨리 자백했더라면 결과가 달라졌을 것이라고 언급하였다.


카스텔 판사는 22일 결정문에서 개인 상해 전문 부티크 로펌인 Levidow Levidow & Oberman PC의 피터 로두카(Peter LoDuca)와 스티븐 슈워츠(Steven Schwartz) 두 변호사가 재판에서 ‘개인적인 적대감’을 가지고 행동하거나 상대편에 대하여 부당한 이익을 편취하기 위해 행동하지는 않았지만, 다른 사람들이 이들의 실수를 반복하지 않도록 징계해야 한다고 말했다. 카스텔 판사는 "기술 발전은 흔한 일이며 업무 보조를 위하여 신뢰할 수 있는 인공지능 도구를 사용하는 것에 본질적으로 부적절한 것은 없습니다. 하지만 변호사들은 서류의 정확성을 보장하는 문지기 역할을 해야 합니다.” 라고 언급하였다.


카스텔 판사는 두 변호사에게 이 사건의 고객인 로베르토 마타(Roberto Mata)에게 이 사건에서 무슨 일이 있었는지 설명하는 편지, 22일의 징계 결정문, 카스텔 판사가 두 변호사를 질책하는 6월 초의 재판 심리 녹취록을 보내라고 명령하였다. 나아가 챗 지피티(ChatGPT)가 허위로 생성하여 인용한 판결문들의 실제 판사들에게도 이와 같은 자료들을 모두 보낼 것을 명령하였다. 카스텔 판사는 또한 변호사들에게 5000달러의 벌금을 부과하였다. 로두카 변호사는 재판 중 시간을 벌기 위하여 휴가 중이라고 거짓말을 하였고 슈워츠 변호사는 자신이 판례 전문을 찾을 수 없는데도 불구하고 존재하지 않는 판례를 챗 지피티로 생성한 후에 그 판례들을 자세히 분석해 법원을 혼란스럽게 하였기 때문에 징계가 결정된 것이었다.


카스텔 판사는 22일 내려진 별도의 판결에서 두 변호사의 고객인 로베르토 마타가 항공사인 아비앙카(Avianca Inc.)를 상대로 제기한 개인 상해 소송을 기각하였다. 로베르토 마타는 항공사 직원을 과실치사 혐의로 고소한 상태였는데, 항공사 직원이 금속 서빙 카트로 자신의 무릎을 쳤다는 것이 고소 사유였다. 판사는 이 사건도 위의 사건과 같이 너무 늦게 소가 제기되었다는 사실을 알아냈다. 슈워츠 변호사는 주로 뉴욕 주법원에서 사건을 처리하였고 뉴욕 연방법원에서 변론할 자격은 없었다. 따라서 아비앙카 사건을 효과적으로 해결할 수 있는 연방법원 판례 리서치 도구와 데이터베이스에 접근할 권한을 받지 못하였다. 그는 다른 방향으로 이 사건을 해결하는 대신, 들어보기는 했지만 아직 써보지는 못했던 챗 지피티로 눈을 돌렸다. 그는 챗 지피티로 7건의 있지도 않은 판례를 언급한 법률 문서를 생성하였다. 같은 사무실의 로두카 변호사는 슈워츠 변호사가 작성한 그 법률 문서를 별다른 수정 없이 법원에 제출하였고 아비앙카는 이에 대응하여 이 문서에서 언급된 판례들을 찾을 수가 없다고 법원에 로두카 변호사의 서류에 이의를 제기하는 서류를 제출하였다.


이번 해외시장뉴스에서는 챗 지피티 및 구글 바드(Google Bard)와 같은 텍스트 생성 대규모 언어 모델(Large Language Model, 이하 LLM) 플랫폼을 중심으로 생성형 인공지능(AI)에 대하여 알아보고 대규모 언어 모델의 이점과 한계를 살펴보며, 인공지능 소프트웨어는 현재의 법제 아래에서 어떠한 지적재산권의 보호를 받을 수 있는지 등을 살펴보고자 한다.


생성형 인공지능(Generative AI) 및 대규모 언어 모델(Large Language Models)

 

생성형 인공지능은 컴퓨터 알고리즘을 사용하여 훈련된 데이터를 기반으로 텍스트·이미지 및 기타 콘텐츠를 생성하는 인공지능의 일종으로, 사용자의 프롬프트 또는 질문에 응답한다. 알고리즘은 주어진 입력 데이터에서 출력 값을 예측하는 것과 같은 특정 작업을 수행하는 지침이 있는 코드의 집합이다. 생성형 인공지능은 딥 러닝이라는 프로세스를 사용하는데, 이 프로세스는 여러 계층의 처리를 통해 인공 신경망을 사용하여 데이터에서 점진적으로 더 높은 수준의 기능을 추출한다.


생성형 인공지능은 텍스트, 컴퓨터 코드, 이미지들, 오디오, 영상, 시뮬레이션, 3차원 물체, 분자를 출력하는데 사용될 수 있다. 생성형 인공지능 모델은 입력(input)이라고도 하는 기존 콘텐츠(예: 숫자, 사진 또는 텍스트)의 대규모 데이터 세트에서 훈련된다. 이 모델은 이러한 교육 데이터를 사용하여 해당 데이터 유형의 기본 패턴과 구조를 학습한다. 학습한 패턴과 특성에 따라 메시지가 표시되면 새 데이터(출력)를 생성한다. 그런 다음 인간 전문가가 출력을 검토하고 유용한지(또는 유용하지 않은지)를 결정하며, 모델을 개선하기 위한 피드백을 제공한다.


 <비즈니스 전반에서 이용되고 있는 인공지능>

[자료: Pixabay]


대규모 언어 모델(LLM)은 방대한 수의 매개 변수를 가진 인공 신경망으로 구성된 컴퓨터화된 언어 모델이다. 모수는 출력을 생성할 때 모델이 고려하는 요인의 수이며 수십억 개로 나눌 수 있다. 신경망의 딥 러닝 알고리즘은 인간처럼 보이는 방식으로 자연어 텍스트를 처리하고 생성하기 위해 방대한 매개 변수 세트를 고려한다. 특히, LLM은 일반적으로 자연어 처리(Natural language processing, NLP)의 효율성과 정확성을 향상시키는 신경망 아키텍처의 일종인 변압기 신경망(트랜스포머)을 사용한다. 이러한 유형의 LLM은 챗 지피티 및 구글 바드에서 사용하는 Pathways Language Model 2와 같은 사전 훈련된 생성 변압기(GPT) 플랫폼의 기반이다. LLM은 일반적으로 텍스트(또는 컴퓨터 코드)를 해석하고 생성하는 데 사용된다. 그들은 광범위한 도메인과 언어 구조를 이해하는 범용 모델이며, 이는 그들이 훈련받은 방대한 양의 데이터의 직접적인 결과이다.

 

현행 대규모 언어 모델(Large Language Models)의 한계

 

급속한 발전에도 불구하고 대규모 언어 모델(LLM) 새로운 기술이기에 많은 한계점을 가지고 있다. 대표적인 한계점을 살펴보면, 1) 편향·부정확 불완전한 데이터 출력 생성, 2) 환각(Hallucination), 3) 해석 가능성 투명성 문제, 4) 일관성 문제가 있다. 이러한 한계점에 대하여 하나씩 살펴보고자 한다.


1) 치우침, 부정확 불완전한 데이터


대규모 언어 모델(LLM)은 특정 데이터 세트에 대해 훈련되므로 훈련된 데이터 범위만큼만 우수하다. 그러나 이러한 데이터 세트는 불완전하거나 날짜가 한정적일 수 있다. 예를 들어, 많은 사람들이 알고 있듯 챗 지피티는 2021년 9월까지만 데이터 학습을 받았다. 그래서 2021년 9월 이후의 데이터는 아직 출력되지 않는다. 따라서 LLM이 학습한 데이터 세트에는 부정확성, 잘못된 정보 또는 편향을 심화시키는 내용이 포함될 수 있다. LLM 개발자는 신뢰할 수 있는 기관을 사용하여 LLM을 훈련함으로써 부정확하고 편향된 데이터 출력을 줄일 수 있다. 편향된 인공지능 데이터와 위험성을 인지한 여러 예가 있지만, 미국에서 발생한 사건들을 중심으로 가지만 예를 들어 살펴본다


 (1) 안면인식기술(Facial Recognition Technology, 이하 FRT)을 사용하여 용의자를 식별하는 경우이다. 2020년 1월, 뉴저지주의 법무장관은 모든 뉴저지 경찰 및 카운티 검사에게 FRT를 사용하여 용의자를 식별하는 회사인 클리어뷰 에이아이(Clearview AI)의 FRT 사용을 중지할 것을 명령하고 클리어뷰에는 사무실 사용을 중지하는 서한을 보내 제품 개발을 중지하도록 하였다. 


 (2) 재범을 예측하기 위한 프로파일링의 경우다. 대체 제재를 위한 교정 범죄자 관리 프로파일링(Correctional Offender Management Profiling for Alternative Sanctions, 이하 COMPAS)은 피고인의 재범을 예측하는 위험 평가 도구이다. 이 도구는 선고에 사용되며 적절한 교도소 시설에서의 배치를 평가한다. 그러나 도구에 사용된 알고리즘은 흑인 피고인을 백인 피고인보다 두 배 더 "미래 범죄 발생 고위험군"에 가깝다고 분류하며, 편향된 사고를 보여주었다. 


 (3) HR 채용 시스템의 경우다. 아마존 채용 시스템은 인공지능을 사용하여 채용 후보자에게 별 1개에서 5개까지 점수를 부여했다. 그러나 이 인공지능의 지원자별 등급 부여는 성별 중립적이지 않았으며, 여성을 차별하는 특성을 나타냈다.


2) 환각(Hallucination)


하나의 중요한 한계는 LLM 환각을 일으키거나 부정확한 사실을 설득력 있게 진술할 있다는 것이다. 환각은 LLM 진실성이나 정확성을 판단할 없기 때문에 발생한다. LLM 진실성이나 정확성을 판단하는 대신 그들은 프롬프트에 성공적으로 응답할 확률이 가장 높은 단어 순서만 예측한다. 따라서 인공지능 도구의 응답이 정확하고 권위적으로 보일 있기 때문에 사용자는 LLM 잘못 의존할 있다


예를 들어, 변호사들은 기술이 오답을 제공하거나 존재하지 않는 판례를 인용함으로써 환각을 일으킬 있다는 것을 깨닫지 못한 지피티와 같은 생성형 인공지능 플랫폼을 사용하여 법률 연구를 수행할 있다. 우리가 머리말에서 살펴본 예는 이러한 환각에 의하여 진실성이나 정확성에 대한 판단력이 없는 지피티가 없는 판례를 마치 있는 것처럼 변호사들에게 찾아주었기에 발생한 것이다


따라서 케빈 카스텔 판사가 사례에서 지적하였듯이 인공지능을 사용하여 업무를 하는 사람들은 온전히 챗 지피티를 신뢰하기 보다 자신들의 업무를 점검할 의무를 다해야 한다. 일부 판사들은 이제 변호사와 당사자들이 법원에 제출하는 문서에서 생성형 인공지능 사용에 대한 인증된 진술을 하도록 요구하고 있다. LLM 개발자와 사용자는 미세 조정 프롬프트를 통해 환각을 방지할 있다. 미세 조정은 텍스트 요약, 번역 질문 답변과 같은 특정 작업을 수행하도록 모델을 조정하는 것이다. 작업은 강화 학습(Reinforcement Learning, RL) 단독으로 수행될 수도 있고, 지도 학습, 인간의 피드백과 결합된 강화 학습으로도 가능하며 (오픈에이아이는 이러한 강화 학습을 인간 피드백(Reinforcement Learning from Human Feedback, RLHF)에서 학습한다고 부른다.), 신속한 엔지니어링으로도 가능하다.


3) 해석성과 투명성(Interpretability and Transparency)


LLM 일반적으로 사용자에게 답변의 이유를 알려줄 없다. 이로 인해 사용자는 LLM 답변을 신뢰할 있는지 또는 LLM 답변이 얼마나 정확한지에 대한 자체 판단을 사용할 있는지 판단하기가 어렵다. 이것은 LLM의 사용을 제한적으로 만들 수 있다. 예를 들어 LLM 법률 또는 기타 전문적인 조언을 제공하는 사용되어서는 안된다.


4) 일관성(Consistency)


LLM 확률을 계산하고 선택하여 작동하기 때문에 사용자가 동일한 프롬프트나 질문을 입력하더라도 LLM 여러 질문한 동일한 출력을 생성한다는 보장은 없다. 이러한 일관성 부족은 재현성(reproducibility) 필요한 사용 사례를 제한할 있다.

 

인공지능과 정보 보호, 사생활 보호 문제

 

인공지능을 통하여 개인 정보를 관리하는 조직은 글로벌 데이터 보호법을 준수하려고 문제에 부딪힐 있다. 데이터 보호법은 세계에 존재하며 일반적으로 개인 정보의 수집, 사용, 처리, 공개, 보존, 저장 보안에 적용된다. 이러한 법률은 국경을 초월한 개인 정보 전송도 제한할 있다.


몇몇 국가들은 인공지능의 사용과 개인 정보와 관련한 자동화된 의사 결정을 제한하는 포괄적인 데이터 보호법을 가지고 있다. 미국을 포함한 외의 국가들은 개인 정보 보호와 자동화된 의사 결정을 규제하는 단일 연방법이 없고 오직 섹터별 주법이 있다미국에서 자동 의사 결정 인공지능을 규제하는 법률로는 공정신고보고법 (The Fair Credit Reporting Act, FCRA), 일리노이 인공지능 비디오 인터뷰법(Ill. HB 2557)(공공법 101-0260) 등이 있다. 그리고 2023년부터 콜로라도, 코네티컷 버지니아의 소비자 개인 정보 보호법은 자동화된 의사 결정이 거주자에게 법적으로 혹은 그와 비슷한 수준으로 중요한 영향을 미치는 경우, 자료수집에 대하여 거부할 있는 권리를 제공한다. 2020 캘리포니아 개인 정보 보호 권리법(California Privacy Rights Act of 2020) 캘리포니아 주민들에게 규칙 제정 과정을 통하여 이와 유사한 권리를 제공할 예정이다.


대부분의 데이터 보호 법률의 기본 목표는 조직이 개인에 대해 보유하고 있는 개인 정보의 양을 최소화, 조직이 개인의 기대에 따라 개인 정보를 처리하도록 보장, 조직이 개인 데이터를 처리하는 목적을 고려하여 개인 데이터의 정확성을 보장, 데이터 보호 위반에 대한 책임이 있는 개인 정보를 수집하는 조직을 보유, 개인 정보의 사용으로 인해 발생할 있는 예상치 못한 피해로부터 개인을 보호하는 것이다.


연방거래위원회(Federal Trade Commission, FTC) 2020 4 8 인공지능 사용으로 인해 발생하는 소비자 보호 위험을 조직이 관리할 있는 방법에 대한 지침(FTC Guidance) 발표했다. FTC 지침은 인공지능 알고리즘은 투명하고 설명 가능하고 공정하고 경험적으로 건전하고 책임감 있어야 한다고 강조하였다.

 

인공지능 소프트웨어의 지적 재산권 보호 방안

 

인공지능 소프트웨어는 특허, 저작권, 또는 영업비밀로서 보호받을 수 있는데, 아래에서는 세가지 형태로 등록하는 경우 각각의 요건과 장단점에 대해 기술하고자 한다.


1) 특허


특정 형태의 인공지능은 특허를 받을 있다. 미국 특허상표청(USPTO) 인공지능을 명시적으로 706(데이터 처리: 인공지능) 특허 분류 시스템에서 분류하고 있다. 현재 개의 심사 부서가 인공지능 관련 특허 출원서를 심사하고 있다.


인공지능의 특허를 출원하려는 변호사는 보호하고자 하는 인공지능 기술이 특허법(35 U.S. C. § 101) 101조에 따라 특허 적격인지 여부를 고려해야 한다. 특허법의 다른 요구사항(신규성, 비자명성 명세서 기재 요건) 통과한 경우, 101조는 법적으로 규정된 한계 안에서 새롭고 유용한 프로세스·기계 관련 개선사항에 대한 보호를 허용한다. 미국 대법원은 "추상적 아이디어" (자연 물리적 현상의 법칙과 함께) 특허 보호 범위에서 제외함으로써 101 적용의 한계를 설정하였다(Diamond v. Chakrabarty, 447 U.S. 303, 309(1980)). , 미국 대법원은 자연법칙(laws of nature), 자연현상(natural phenomena), 추상적 아이디어(abstract ideas) 미국 특허법 101조에 포섭할 없어 특허대상이 아니라는 원칙을 가지고 있다


그러나 이후 유명한 앨리스 사건(Alice Corp. v. CLS Bank International, 573 U.S. 208)에서 대법원은 '-파트 테스트(Two-Part Test)' 적용했다. 먼저 발명이 추상적인 아이디어인지 결정하고 만약 추상적인 아이디어에 해당한다면 아이디어 이상의 발명 개념이 추가로 포함돼 있는 경우 특허를 등록 받는 것이 가능하다고 판시하였다. 법원은 이를 발명적인 개념(inventive concept)” 검색으로 규정하였다. 앨리스 판례에 따르면 여전히 추상적 아이디어에 대한 발명을 단지 컴퓨터를 이용해서 시행하는 만으로는 특허를 받을 없다.


인공지능 관련 기술은 일반적으로 인간의 지능을 모방하기 위한 컴퓨터 프로그램과 알고리즘을 기반으로 한다. 따라서 법원이나 특허상표청은 인공지능에 대한 특허 출원이 추상적인 아이디어의 예외에 속한다고 여지가 있다


인공지능 관련 기술의 특허를 얻으려고  특허 변호사는 가지를 염두하여 출원서를 전략적으로 작성해야 하는데 이는 다음과 같다


  (1) 순수한 수학적 계산과 정신적 과정을 포함해, 아이디어의 추상성을 벗어나는 방식으로 발명을 특성화해야 한다(USPTO 개정 특허 주제 적격성 지침 참조, 84 Fed. Reg. 50). 

  (2) 잠재적인 추상적 아이디어를 실용적인 출원서로 통합시켜야 한다. 컴퓨터의 기능을 향상 시킨다든지, 기계 또는 제조 물품과 함께 아이디어를 구현하거나 사용하는 부분을 강조해야 한다. 셋째, 이해되어 있지 않거나(not well-understood) 일상적(routine)이거나 관습적(conventional) 청구항 요소를 포함시킨다. 넷째, 112조에 의거한 거절을 사전에 방지하기 위해 기능성(functionality)보다는 구조적(structure) 측면에서 발명을 설명해야 한다.

  (3) 특허법은 출원인이 해당 기술 분야에서 통상적인 기술을 가진 사람이 발명의 전체 범위를 만들고 사용할 있을 정도로 발명에 대한 상세한 명세서를 기재하도록 요구하고 있다(35 U.S.C. § 112). 광범위한 청구항 출원을 위하여, 특허 출원인은 특허출원서에 광범위한 기술 공개를 포함해야 한다. 다만 예시가 매우 많은 인공지능 시스템을 설명하려고 때에는 이와 같은 요건을 맞추기 어려울 있다. 반대로, 독점 정보를 보호하기 위하여 공개의 범위를 좁히는 경우에는 청구항의 범위를 지나치게 제한할 있다.


위의 전략을 사용하여 특허를 통하여 인공지능 기술의 보호가 가능한 경우에도, 다른 지적재산권의 형태에 비하여 특허는 인공지능을 보호하기에 불리한 가지 점이 존재한다. 첫째, 특허 출원 과정은 일반적으로 년이 소요되며, 기간 동안 특히 빠르게 발전하는 인공지능 기술의 특성을 고려했을때 발명의 상업적 가치가 사이에 감소할 있다. 둘째, 특허 출원 과정은 청구된 발명의 공개를 요구하며, 이는 출원인의 귀중한 영업비밀을 누설할 있다. 셋째, 특허의 기본 보호 기간은 출원일로부터 20년이지만(35 U.S.C. § 154(a)(2)), 저작권의 경우에는 저자의 수명 기간에 사망 이후 70년을 더한 기간 동안 보호되며, 영업비밀의 경우에는 사실상 영원히 보호된다.


2) 저작권


소스 코드와 인공지능 컴퓨터 프로그램의 시각적 요소를 포함한 특정 유형의 인공지능은 저작권을 이용하여 보호할 수 있다. 소스 코드는 원래 컴퓨터 프로그램으로서 저작권에 의해 보호될 수 있다(17 U.S.C. § 101). 소스 코드와 객체 코드가 인쇄물이나 컴퓨터 하드 드라이브 또는 기타 전자, 자기 또는 광학 매체와 같은 유형의 표현 매체에 고정되어 있는 경우, 문학 작품으로서 저작권을 가질 수 있다. 저작권에 따른 보호는 소프트웨어에 포함된 오리지널 표현에까지 확장되지만 알고리즘, 형식 지정, 논리 또는 시스템 설계와 같은 기능적인 측면에는 확장되지 않는다.

저작권 보호를 받기 위한 요건은 특허 보호를 받기 위한 요건만큼 광범위하지 않다. 그러나 저작권을 통해 인공지능 소프트웨어를 보호하는 것은 다음과 같은 단점이 있다. 


  (1) 저작권은 소스 코드의 오리지널 표현을 보호하는 것으로 제한되며 하드웨어와 같은 인공지능 시스템의 다른 측면으로 확장되지 않는다. 

  (2) 저작권 침해 증명에는 실제로 저작권을 복제하였다는 복제물 증명이 필요하며, 이는 특허 침해를 입증하기 위해서는 필요하지 않는 요건이다. 

  (3) 저작권 침해로 간주될 수 있는 행위 중 일부는 공정사용으로서 허용될 여지가 있다. 

  (4) 오픈 소스 소프트웨어를 통합하는 인공지능 소프트웨어는 소유권의 문제와 그에 기초한 집행의 문제를 야기할 수 있다. 

  (5) 지속적으로 저작권 등록을 유지하려는 저작권 소유자는 보호된 소프트웨어의 모든 버전을 새로 나올 때마다 등록해야 한다.


3) 영업비밀


영업비밀은 소스 코드, 알고리즘 및 인공지능 교육 데이터 세트와 같은 인공지능 프로그램에 대하여 지적재산권 보호의 유용한 형태가 될 수 있다. 영업비밀은 1996년 제정되어 2016년 영업비밀보호법(Defense Trade Secret Act of 2016, DTSA)에 의해 대폭 개정된 경제 스파이법(Economic Espionage Act, 18 U.S.C. §§ 1831 to 1839)에 따라 연방 차원에서 보호되고 있으며, 주 차원에서는 주 영업비밀법에 의해 보호되고 있다. 콜롬비아 특별구와 미국령 버진아일랜드뿐만 아니라 모든 주(뉴욕 제외)가 통일영업비밀법(Uniform Trade Secrets Act, UTSA)을 채택하고 있다.


연방법과 주법에 따라 영업비밀 보호는 일반적으로 다음 기준을 충족하는 비즈니스, 금융 및 기술 정보(예: 소스 코드 및 데이터)에 광범위하게 적용된다. 첫째, 정보는 일반적으로 소유자의 조직 및 통제 밖에 알려져 있지 않거나 결정될 수 없어야 한다. 둘째, 정보의 소유자는 일반적으로 알려지지 않은 정보로부터 독립적인 경제적 가치 또는 비즈니스 이점을 얻어야 하며, 또한 비밀을 지키기 위해 합리적인 노력을 했어야 한다.


<영업비밀로 보호받기 위해서는 상당한 자원의 투입과 많은 노력이 필요하다>

[자료: Pixabay]

 

소유자는 인공지능 영업비밀을 보호할 수 있는데 이를 위하여는 다음과 같은 노력을 기울여야 한다. 


 - 기술이 계속적으로 소프트웨어 업그레이드를 통해 빠르게 발전하는 경우, 보호가 필요한 인공지능 기술을 지속적으로 식별해야 한다. 

 - 관련 서버, 컴퓨터 및 미디어에 대한 물리적 액세스를 제한해야 한다. 

 - 관련 문서 및 실제 미디어를 비밀 또는 기밀로 표시한다. 

 - 영업비밀을 보호하기 위해 합리적인 조치를 취해야 하는데, 이는 다중 요인 인증 조치, 모바일 장치 관리, 데이터 손실 방지 소프트웨어 등을 통하여 가능하다. 

 - 영업비밀에 대한 직원의 접근 및 사용을 규제하는 서면 정책을 제정해야 한다. 

 -  비밀 유지 계약(non-disclosure agreement)을 이용해야 한다. 

 -  기본 소스 코드 또는 인공지능 시스템 교육에 사용되는 주요 데이터 세트와 같은 회사의 가장 중요한 인공지능 기술을 보호하기 위해 상당한 자원을 투입해야한다.


특허 및 저작권에 대비하여 영업비밀 보호는 몇 가지 장점을 제공한다. 


  (1) 보호 기간이 영원하다 (보호 기간에 대한 제약이 없다). 

  (2) 출원이나 등록 과정이 불필요하여 그에 따른 지연 또한 없으며, 보호받는 기술을 공개할 필요도 없다. 그러나 영업비밀의 소유자는 위에서 열거한 바와 같이 영업비밀을 획득하고 유지하기 위하여 상당한 노력과 비용을 들여야 하며, 이는 다른 형태의 지적재산권 보호에 비하여 단점이 될 수 있다.

 

시사점


생성형 인공지능(AI), 특히 오픈에이아이(OpenAI)사의 챗 지피티와 구글 바드를 구동하는 대규모 언어 모델(LLM)의 급속한 기술 발전과 확산은 많은 비즈니스 활동을 변화시키고 있다. 인공지능과 테크 산업 내외부의 조직과 그 직원들은 대규모 언어 모델을 점점 더 많이 사용하고 있다. 연구 수행, 이메일 작성, 자기 소개서 작성, 계약서나 의견서 작성, 프레젠테이션 문서 작성, 기타 반복적인 문서들, 웹사이트나 소셜 미디어 콘텐츠 작성, 마케팅 자료 작성 등에 특히 많이 쓰고 있다. 


생성형 인공지능 및 대규모 언어 모델은 기업과 그 운영에 이점을 제공할 수 있지만 위에서 살펴 보았듯 잠재적으로 상당한 위험을 초래할 수도 있다. 생성형 인공지능, 특히 대규모 언어 모델의 위험과 이점을 평가하기 위해서는 조직과 그들의 변호사는 LLM은 무엇이며 다양한 비즈니스 기업에서 사용될 수 있는 잠재적 용도, LLM의 작동 방식, LLM 사용의 잠재적인 위해를 포함한 LLM의 한계에 대하여 충분히 인식하고 있어야 한다. 


위에서 살펴본 바와 같이 인공지능 소프트웨어는 특허, 저작권, 또는 영업비밀로서 보호받을 수 있는데, 소프트웨어의 특성에 맞추어 각각의 장단점을 고려하여 적절한 보호 방안을 선택해야 한다. 많은 자원과 시간을 투자하여 개발한 인공지능 소프트웨어가 보호받지 못하는 상황이 벌어지지 않도록 우리 기업들은 개발 단계부터 미리 지적재산권 보호 전략을 수립하여 실행해 나가야 하겠다.



17 U.S.C. § 102(a); Sega Enters. v. Aqualade, Inc., 977 F. 2d 1510, 1520 (9th Cir. 1992); USPTO Revised Patent Subject Matter Eligibility Guidance, 84 Fed. Reg. 50 (Jan. 7, 2019 and Legal Update, USPTO Publishes Update to Revised Guidance on Patent Subject Matter Eligibility); Certification Regarding Artificial Intelligence for Court Filings, by Westlaw Practical Law Litigation; Basics: Generative AI and Large Language Models: Overview, Westlaw Practical Law Intellectual Property & Technology; Bias and AI: The Case for Inclusive Tech, by Elizabeth M. Adams, EMA Advisory Services, with Westlaw Practical Law Intellectual Property & Technology; Artificial Intelligence Key Legal Issues: Overview, by Westlaw Practical Law Intellectual Property & Technology; IT Basics: Generative AI and Large Language Models: Overview, Westlaw Practical Law Intellectual Property & Technology; Attys In ChatGPT Fiasco Sanctioned For 'Bad Faith' Conduct), https://www.law360.com/articles/1691963?scroll=1&related=1; IT New Jersey Bars Police From Using Clearview Facial Recognition App, 뉴욕타임즈; How to Argue with an Algorithm: Lessons from the COMPAS-ProPublica Debate, 17 Colo. Tech. L.J. 131 (2018); Flawed ai makes robots racist, sexist, 스홉킨스대학; ChatGPT Lawyers Are Ordered to Consider Seeking Forgiveness, 욕타임즈; Using Artificial Intelligence and Algorithms, https://www.ftc.gov/business-guidance/blog/2020/04/using-artificial-intelligence-and-algorithms; [코트라 지식재산권 칼럼] 소프트웨어 특허 출원 동향, https://news.koreadaily.com/2017/09/26/economy/economygeneral/5642226.html; 등 KOTRA 뉴욕 무역관 자료 종합

<저작권자 : ⓒ KOTRA & KOTRA 해외시장뉴스>

공공누리 제 4유형(출처표시, 상업적 이용금지, 변경금지) - 공공저작물 자유이용허락

KOTRA의 저작물인 (美 대규모 언어 모델을 둘러싼 법률적 문제와 인공지능 소프트웨어의 지재권 보호방안)의 경우 ‘공공누리 제4 유형: 출처표시+상업적 이용금지+변경금지’ 조건에 따라 이용할 수 있습니다. 다만, 사진, 이미지의 경우 제3자에게 저작권이 있으므로 사용할 수 없습니다.

댓글

0
로그인 후 의견을 남겨주세요.
댓글 입력
0 / 1000