챗GPT의 등장으로 시작된 생성형 AI 열풍이 우리 사회 곳곳을 바꿔놓고 있다. 변호사 시험 문제를 척척 풀어내는 AI, 의료진단을 도와주는 AI, 자율주행차를 운전하는 AI까지 등장하면서 기존 법체계로는 감당하기 어려운 새로운 문제들이 쏟아져 나오고 있다. AI가 내린 진단이 틀려서 환자가 피해를 입었다면 누가 책임을 져야 할까? 자율주행차가 사고를 낸다면 운전자와 제조사, 소프트웨어 개발사 중 누구의 책임일까?
이런 질문들은 단순히 기술적인 문제가 아니라 우리 사회가 어떤 가치를 추구할 것인지에 대한 근본적인 물음이다. 효율성과 안전성 사이에서, 혁신과 규제 사이에서, 개인의 자유와 사회적 통제 사이에서 어떤 균형점을 찾을 것인가? 법이 기술의 발전을 따라가지 못하는 ‘규제 지체(regulatory lag)’ 현상은 어떻게 해결할 것인가?
더 복잡한 것은 AI와 빅데이터가 기존의 법적 개념들을 근본부터 흔들고 있다는 점이다. 인간만이 책임의 주체가 될 수 있다던 전통적 관념, 명확한 인과관계를 전제로 한 손해배상 체계, 사전적 규제를 통한 위험 관리 방식 등이 모두 재검토되어야 할 상황이다. 법학은 이런 변화에 어떻게 대응해야 할까?
법과 윤리의 관계 재정립
기술 발전으로 인한 법적 과제를 논의하기 전에, 먼저 법과 윤리의 관계를 명확히 해야 한다. 전통적으로 법은 사회질서 유지를 위한 최소한의 도덕이라고 여겨져 왔다. 하지만 AI 시대에는 이런 구분이 모호해지고 있다. 기술적으로 가능한 것과 윤리적으로 허용되는 것, 그리고 법적으로 규제해야 하는 것 사이의 간격이 점점 벌어지고 있기 때문이다.
예를 들어 딥페이크 기술을 생각해보자. 기술적으로는 누구나 쉽게 가짜 동영상을 만들 수 있지만, 이를 악용하면 개인의 명예를 심각하게 훼손하거나 민주주의의 근간을 흔들 수 있다. 그렇다면 딥페이크 기술 자체를 금지해야 할까, 아니면 악용하는 행위만 처벌해야 할까? 기술 발전의 자유와 사회적 위험 방지 사이에서 어떤 선택을 해야 할까?
이런 딜레마는 ‘기술 중립성’ 개념의 한계를 보여준다. 기술 자체는 선악이 없고 사용하는 방법에 따라 결과가 달라진다는 전통적 관점으로는 AI 시대의 복잡한 문제들을 해결하기 어렵다. AI 알고리즘은 설계 단계부터 특정한 가치관과 편견을 내재하고 있고, 학습 데이터의 편향성이나 목적 함수의 설정 방식에 따라 결과가 크게 달라지기 때문이다.
따라서 AI 시대의 법학은 ‘가치 내장 설계(value-sensitive design)’ 관점을 받아들여야 한다. 기술 개발 단계부터 어떤 윤리적 가치들을 구현할 것인지 고민하고, 이를 법적 규범으로 뒷받침하는 체계를 만들어야 한다. 이는 사후적 규제에서 사전적 예방으로, 결과 중심에서 과정 중심으로 법적 사고의 전환을 요구한다.
윤리적 고려사항들을 법제화할 때는 경직성과 유연성의 균형도 중요하다. 너무 구체적으로 규정하면 급변하는 기술 환경에 대응하기 어렵고, 너무 추상적으로 규정하면 실효성이 떨어진다. ‘원칙 기반 규제(principles-based regulation)’ 방식이 하나의 대안으로 제시되고 있는데, 기본적인 가치와 원칙은 법으로 명확히 하되 구체적인 적용 방법은 가이드라인이나 모범사례를 통해 유연하게 제시하는 방식이다.
AI와 로봇의 법적 지위
AI와 로봇이 점점 자율적인 판단을 내리고 독립적인 행위를 하게 되면서, 이들의 법적 지위를 어떻게 정의할 것인가 하는 문제가 제기되고 있다. 현재 법체계에서는 권리와 의무의 주체가 될 수 있는 것은 자연인과 법인뿐이다. 하지만 인간의 지시 없이도 스스로 학습하고 판단하는 AI가 등장하면서, 이들도 일종의 법적 주체로 인정해야 하는지 논란이 되고 있다.
유럽연합은 2017년 로봇에게 ‘전자적 인격(electronic personhood)’을 부여하는 방안을 검토한 바 있다. 로봇이 야기한 손해에 대해 제조사나 사용자가 아닌 로봇 자체가 책임을 지도록 하자는 아이디어였다. 이를 위해 로봇 전용 보험제도를 만들고, 로봇의 ‘수익’으로 보험료를 납부하게 하자는 구체적인 제안까지 나왔다.
하지만 이런 접근법에 대해서는 비판적 의견도 만만치 않다. AI나 로봇은 아무리 정교해도 결국 인간이 만든 도구에 불과하며, 이들에게 법적 주체성을 부여하는 것은 인간의 책임을 회피하는 수단이 될 수 있다는 지적이다. 특히 AI 개발사들이 자신들의 책임을 AI에게 떠넘기는 방편으로 악용될 가능성이 크다는 우려가 제기되고 있다.
현재로서는 AI와 로봇을 독립적인 법적 주체로 인정하기보다는, 기존 법인 제도를 확장하거나 새로운 형태의 ‘준법인’ 개념을 도입하는 방향이 현실적으로 보인다. 예를 들어 특정한 AI 시스템에 대해 별도의 법인격을 부여하되, 그 뒤에는 반드시 인간 주체들(개발사, 운영사, 사용자 등)의 책임이 연결되도록 하는 방식이다.
로봇세(robot tax) 논의도 이런 맥락에서 이해할 수 있다. 로봇이 인간 일자리를 대체하면서 발생하는 사회적 비용을 로봇 소유자나 제조사가 부담해야 한다는 주장이다. 빌 게이츠나 일론 머스크 같은 기술 리더들도 로봇세 도입에 찬성 의견을 표명한 바 있다. 하지만 기술 혁신을 저해할 수 있다는 반대 의견도 만만치 않아, 실제 도입까지는 더 많은 논의가 필요한 상황이다.
알고리즘 책임과 설명 가능성
AI 시스템이 내린 판단이나 결정으로 인해 피해가 발생했을 때 누가 어떤 책임을 져야 하는지는 AI 법학의 핵심 쟁점 중 하나다. 전통적인 책임법 체계는 행위자의 고의나 과실을 전제로 하는데, AI 시스템의 경우 이런 주관적 요소를 찾기 어렵다. 또한 머신러닝 알고리즘의 ‘블랙박스’ 특성상 왜 그런 결정을 내렸는지 설명하기 어려운 경우가 많아, 인과관계 입증도 쉽지 않다.
이에 대한 대응으로 ‘알고리즘 책임법’ 체계가 발전하고 있다. 기본 아이디어는 AI 시스템을 개발·운영하는 주체들에게 일정한 주의의무를 부과하고, 이를 위반했을 때 책임을 지도록 하는 것이다. 구체적으로는 ▲적절한 데이터로 학습시킬 의무 ▲정기적으로 성능을 모니터링할 의무 ▲편향성이나 오류를 발견했을 때 수정할 의무 ▲사용자에게 AI 시스템의 한계와 위험을 고지할 의무 등이 논의되고 있다.
특히 ‘설명 가능한 AI(Explainable AI, XAI)’에 대한 요구가 높아지고 있다. EU의 일반데이터보호규정(GDPR)은 자동화된 의사결정에 대해 설명을 요구할 권리를 명시했고, 미국 일부 주에서는 AI를 활용한 채용이나 대출 심사에서 결정 근거를 설명하도록 의무화하고 있다. 우리나라도 신용정보법 개정을 통해 AI 신용평가에서 평가 근거를 설명하도록 했다.
하지만 설명 가능성 요구는 기술적 한계와 상충하는 경우가 많다. 딥러닝 모델의 경우 수십억 개의 매개변수가 복합적으로 작용해 결과를 만들어내기 때문에, 인간이 이해할 수 있는 형태로 설명하는 것이 기술적으로 어렵거나 불가능한 경우가 많다. 또한 설명 가능성을 높이려고 모델을 단순화하면 성능이 떨어지는 트레이드오프 관계에 있다.
이런 딜레마를 해결하기 위해 ‘차등적 설명 의무’ 개념이 제시되고 있다. 결정의 중요성이나 위험성에 따라 요구되는 설명의 수준을 차등화하는 것이다. 생명과 직결된 의료진단이나 형사처벌에 관련된 판단에서는 높은 수준의 설명을 요구하고, 상품 추천이나 광고 타겟팅 같은 경우에는 상대적으로 낮은 수준의 설명으로도 충분하다고 보는 방식이다.
개인정보보호와 프라이버시
빅데이터와 AI의 발전은 개인정보보호 법제에도 근본적인 변화를 요구하고 있다. 전통적인 개인정보보호 체계는 명확하게 식별 가능한 정보를 보호 대상으로 하고, 수집·이용·제공에 대해 사전 동의를 받는 것을 기본 원칙으로 했다. 하지만 빅데이터 시대에는 겉보기에 익명화된 정보라도 다른 데이터와 결합하면 개인을 식별할 수 있게 되고, AI가 개인의 성향이나 행동을 예측해 프로파일링하는 것이 일상화되고 있다.
EU의 GDPR은 이런 변화에 대응하기 위해 ‘가명정보’ 개념을 도입하고, ‘잊힐 권리’나 ‘데이터 이동권’ 같은 새로운 권리들을 인정했다. 또한 개인정보 영향평가를 의무화하고, 위반 시 매출액의 4%까지 과징금을 부과할 수 있도록 해 실효성을 높였다. 우리나라도 2020년 개인정보보호법을 개정해 가명정보 제도를 도입하고, 개인정보보호위원회를 독립기관으로 격상시켰다.
하지만 여전히 해결해야 할 과제들이 많다. 가장 큰 문제는 ‘동의 피로(consent fatigue)’ 현상이다. 너무 많은 서비스에서 복잡한 개인정보 처리 동의를 요구하다 보니, 사용자들이 내용을 제대로 읽지 않고 무조건 동의하는 경우가 늘어나고 있다. 이렇게 되면 동의 제도가 개인정보 보호 수단으로서의 의미를 잃게 된다.
이에 대한 대안으로 ‘프라이버시 바이 디자인(Privacy by Design)’ 개념이 주목받고 있다. 서비스나 시스템을 설계할 때부터 개인정보 보호를 기본값으로 설정하고, 사용자가 별도의 설정 없이도 프라이버시가 보장되도록 하는 접근법이다. 예를 들어 위치정보 수집을 최소화하거나, 불필요한 개인정보는 자동으로 삭제하거나, 암호화를 기본으로 적용하는 방식이다.
인공지능의 발전으로 ‘행동적 프라이버시’ 문제도 새롭게 대두되고 있다. 개인의 클릭 패턴, 구매 이력, 이동 경로 등을 분석해 성격, 정치성향, 건강상태, 경제적 능력 등을 추론하는 것이 가능해지면서, 직접적인 개인정보 수집 없이도 사실상 개인을 감시하는 것과 같은 효과가 나타나고 있다. 이런 ‘추론된 정보’에 대해서도 개인정보보호 규제를 적용해야 하는지, 개인이 자신에 대한 추론을 거부하거나 수정을 요구할 권리가 있는지 등이 새로운 쟁점으로 부상하고 있다.
자율주행차와 모빌리티 혁신
자율주행차는 AI 기술이 실생활에 미치는 영향을 가장 직접적으로 보여주는 사례다. 현재 레벨 3(조건부 자율주행) 수준의 차량들이 상용화되기 시작했고, 일부 지역에서는 레벨 4(고도 자율주행) 차량의 시범 운행도 이뤄지고 있다. 하지만 자율주행차의 상용화에는 기술적 과제만큼이나 법적·윤리적 과제들이 산적해 있다.
가장 대표적인 것이 ‘트롤리 딜레마’의 현실화다. 자율주행차가 불가피한 사고 상황에서 누구를 구하고 누구를 희생시킬 것인가를 알고리즘으로 결정해야 하는 문제다. 5명이 탄 차량과 1명이 탄 차량 중 어느 쪽으로 방향을 틀 것인가? 노인과 어린이 중 누구를 우선할 것인가? 승객과 보행자 중 누구를 보호할 것인가? 이런 선택을 프로그래밍해야 한다는 것은 생명의 가치를 알고리즘으로 서열화한다는 의미이기도 하다.
MIT의 ‘모럴 머신 실험’은 전 세계 수백만 명을 대상으로 이런 딜레마 상황에서의 선택을 조사했는데, 국가와 문화에 따라 상당한 차이가 있음을 보여줬다. 예를 들어 서구 국가들은 나이보다는 사회적 지위를 중시하는 경향이 있고, 동양 국가들은 개인보다는 집단을 우선하는 경향이 있었다. 그렇다면 글로벌 자동차 회사들은 어떤 기준으로 자율주행 알고리즘을 설계해야 할까?
책임 분배 문제도 복잡하다. 자율주행 중 사고가 발생했을 때 운전자, 제조사, 소프트웨어 개발사, 인프라 제공사 등 여러 주체 중 누가 책임을 져야 하는지 명확하지 않다. 독일은 2017년 자율주행법을 제정해 레벨 3까지는 운전자에게 최종 책임이 있다고 명시했지만, 레벨 4 이상에서는 여전히 논란이 계속되고 있다.
우리나라는 2020년 자율주행차 상용화 촉진 및 지원에 관한 법률을 제정해 자율주행차 운행을 위한 법적 기반을 마련했다. 또한 손해배상 책임에 대해서는 기본적으로 운행자 책임 원칙을 유지하되, 자율주행 시스템의 결함으로 인한 사고의 경우 제조사가 운행자에게 구상권을 행사할 수 있도록 했다. 하지만 구체적인 책임 판단 기준이나 입증 방법 등은 여전히 정교화가 필요한 상황이다.
자율주행차는 도시 계획과 교통 정책에도 근본적인 변화를 가져올 전망이다. 주차공간이 대폭 줄어들고, 차량 공유가 일반화되며, 교통 흐름이 최적화되면서 도시 공간의 활용 방식이 완전히 바뀔 수 있다. 이런 변화에 대비한 법제도 정비와 사회적 합의 도출이 시급한 과제로 대두되고 있다.
플랫폼 경제와 알고리즘 규제
구글, 페이스북, 아마존, 애플 등 빅테크 기업들의 플랫폼이 경제와 사회 전반에 미치는 영향력이 커지면서, 이들에 대한 규제 필요성도 높아지고 있다. 특히 이들이 사용하는 알고리즘이 정보 유통, 상품 판매, 광고 집행 등에서 결정적인 역할을 하면서, 알고리즘의 공정성과 투명성을 어떻게 보장할 것인가가 중요한 쟁점이 되고 있다.
검색 알고리즘의 경우 어떤 정보를 우선적으로 노출시키느냐에 따라 여론 형성에 큰 영향을 미칠 수 있다. 유튜브나 틱톡 같은 동영상 플랫폼의 추천 알고리즘은 사용자의 시청 패턴을 학습해 더 자극적이고 극단적인 콘텐츠를 추천하는 경향이 있어, 사회 갈등을 증폭시키거나 허위정보를 확산시킬 위험성이 지적되고 있다.
이커머스 플랫폼의 상품 추천 알고리즘도 공정성 논란의 대상이다. 플랫폼 운영사가 자사 상품을 우선적으로 노출시키거나, 더 높은 수수료를 지불한 판매자의 상품을 상위에 배치하는 것이 공정한 경쟁을 해치는 것은 아닌지 문제가 제기되고 있다. EU는 2019년 플랫폼-기업 간 거래관계의 공정성과 투명성 제고에 관한 규정을 제정해 주요 순위 결정 요소를 공개하도록 의무화했다.
광고 알고리즘에서는 차별 문제가 중요한 쟁점이다. 페이스북의 광고 타겟팅 알고리즘이 인종이나 성별에 따라 구인광고나 주택광고를 차별적으로 노출시킨다는 지적이 제기되어 미국에서 집단소송이 진행되기도 했다. 이는 알고리즘이 기존의 사회적 편견을 학습하고 재생산할 수 있음을 보여주는 대표적 사례다.
한국도 2021년 플랫폼 공정화법(온라인플랫폼 중개거래의 공정화에 관한 법률)을 제정해 대형 플랫폼의 거래조건 공개 의무와 분쟁조정 절차를 마련했다. 하지만 알고리즘 투명성이나 편향성 문제에 대해서는 아직 구체적인 규제 방안이 마련되지 않은 상태다. 공정거래위원회는 2022년부터 알고리즘 영향평가 제도 도입을 검토하고 있지만, 기업의 영업비밀 보호와 투명성 요구 사이에서 적절한 균형점을 찾는 것이 과제로 남아있다.
디지털 헬스케어와 의료 AI
의료 분야에서의 AI 활용은 진단 정확도 향상과 치료 효과 개선에 큰 도움이 되고 있지만, 동시에 새로운 법적·윤리적 쟁점들을 제기하고 있다. 의료 AI가 내린 진단이나 치료 권고가 틀렸을 때의 책임 문제, 의료진과 AI의 역할 분담, 환자의 알 권리와 동의권 보장 등이 핵심 과제들이다.
현재 국내에서는 AI 의료기기에 대해 식품의약품안전처의 허가를 받도록 하고 있지만, 허가 기준이나 사후 관리 체계는 아직 정비 중이다. 특히 머신러닝 기반 AI는 지속적으로 학습하면서 성능이 변화하는데, 이런 ‘적응형 AI’에 대해서는 기존의 정적인 의료기기 규제 방식으로는 대응하기 어렵다는 지적이 있다.
의료진의 진료 과정에서 AI를 어떻게 활용할 것인가도 중요한 쟁점이다. AI가 제시한 진단이나 치료 권고를 의료진이 그대로 따를 의무가 있는지, 아니면 최종 판단은 여전히 의료진의 몫인지 명확하지 않다. 또한 AI의 권고와 의료진의 판단이 다를 때는 어떻게 해야 하는지, 환자에게는 AI 활용 사실을 어떻게 고지해야 하는지 등도 해결해야 할 문제들이다.
개인건강정보의 보호도 중요한 과제다. 의료 AI가 제대로 작동하려면 대량의 건강정보가 필요한데, 이 과정에서 환자의 프라이버시가 침해될 위험이 있다. 또한 AI가 분석한 건강 정보가 보험회사나 고용주에게 유출되어 차별의 근거로 악용될 가능성도 우려되고 있다. 유전정보의 경우 본인뿐만 아니라 가족에게도 영향을 미칠 수 있어 더욱 신중한 접근이 필요하다.
원격의료의 확산도 디지털 헬스케어 규제의 중요한 영역이다. 코로나19를 계기로 비대면 진료가 일시적으로 허용되었지만, 환자 안전과 의료 접근성 사이에서 적절한 균형점을 찾는 것이 과제로 남아있다. AI를 활용한 원격 진단이나 건강 모니터링이 일반화되면, 의료 서비스의 질 관리와 책임 소재 등에서 새로운 법적 쟁점들이 제기될 것으로 예상된다.
블록체인과 암호화폐 규제
블록체인 기술과 암호화폐의 등장은 기존 금융 시스템과 법체계에 근본적인 도전을 제기하고 있다. 탈중앙화된 시스템에서는 전통적인 금융 규제나 감독이 어렵고, 익명성과 국경을 넘나드는 특성으로 인해 자금세탁이나 탈세 등 불법행위에 악용될 위험도 크다. 하지만 동시에 금융 포용성 확대와 혁신적인 서비스 창출의 가능성도 제공하고 있어, 규제 당국은 혁신 촉진과 위험 관리 사이에서 균형점을 찾아야 하는 어려운 과제에 직면해 있다.
암호화폐의 법적 성격 정의부터 논란이다. 화폐인지, 자산인지, 증권인지에 따라 적용되는 규제가 완전히 달라지기 때문이다. 우리나라는 특정금융거래정보보고법을 개정해 암호화폐를 ‘가상자산’으로 정의하고 신고 의무를 부과했지만, 여전히 종합적인 규제 체계는 마련되지 않은 상태다. 반면 일본은 암호화폐를 ‘암호자산’으로 정의하고 거래소 라이선스 제도를 도입했으며, EU는 암호자산시장규정(MiCA)을 통해 통합적인 규제 프레임워크를 구축하고 있다.
중앙은행 디지털화폐(CBDC) 도입 논의도 활발하다. 한국은행은 CBDC 파일럿 프로젝트를 통해 기술적 검증을 마치고 법적·제도적 과제를 검토하고 있다. CBDC가 도입되면 통화 정책의 효율성이 높아지고 금융 포용성도 개선될 수 있지만, 동시에 개인정보 감시나 상업은행의 중개 기능 축소 등 부작용도 우려되고 있다.
스마트 계약과 분산자율조직(DAO)도 새로운 법적 쟁점을 제기한다. 코드로 작성된 계약이 자동으로 실행되는 스마트 계약의 경우, 버그나 해킹으로 인한 손실이 발생했을 때 누가 책임을 져야 하는지 명확하지 않다. DAO의 경우 중앙화된 관리 주체가 없어 기존 법인 제도로는 규율하기 어려운 측면이 있다. 이런 새로운 형태의 조직과 거래에 대한 법적 틀 마련이 시급한 과제로 대두되고 있다.
국제 협력과 규제 조화
AI와 디지털 기술은 국경을 초월하는 특성을 갖고 있어, 개별 국가 차원의 규제만으로는 효과적인 대응이 어렵다. 국제적인 협력과 규제 조화가 필수적인 이유다. 하지만 각국의 가치관과 규제 철학이 다르고, 기술 패권 경쟁이 치열해지면서 글로벌 차원의 합의 도출은 쉽지 않은 상황이다.
EU는 AI법(AI Act)을 통해 세계 최초로 포괄적인 AI 규제 체계를 구축했다. 위험도에 따라 AI 시스템을 분류하고, 고위험 AI에 대해서는 엄격한 규제를 적용하는 방식이다. 미국은 연방 차원에서는 아직 종합적인 AI 법률이 없지만, 각 주별로 다양한 규제가 시행되고 있다. 중국은 알고리즘 추천 관리 규정을 통해 플랫폼 알고리즘에 대한 규제를 강화하고 있다.
이런 규제 분절화는 글로벌 기업들에게 규제 차익 거래(regulatory arbitrage) 기회를 제공하는 동시에, 혁신 기업들에게는 규제 불확실성과 비용 증가 요인으로 작용한다. 따라서 국제기구나 다자간 협의체를 통한 규제 조화 노력이 중요하다. OECD AI 원칙, UNESCO AI 윤리 권고안, G20 AI 가이드라인 등이 이런 노력의 일환이다.
미래를 위한 법학의 과제
AI 시대의 법학은 기존 법학의 패러다임을 넘어서는 새로운 접근법이 필요하다. 무엇보다 기술에 대한 이해가 필수적이다. 법률가들이 AI나 블록체인 기술의 작동 원리를 모르고서는 효과적인 규제나 분쟁 해결이 불가능하기 때문이다. 법학교육에서도 컴퓨터과학이나 데이터과학 등 인접 분야에 대한 교육이 강화되어야 한다.
예측적 법학(predictive jurisprudence)의 발전도 주목할 만하다. AI를 활용해 판례를 분석하고 소송 결과를 예측하는 것이 가능해지면서, 법률 서비스의 패러다임이 바뀌고 있다. 변호사의 역할도 단순한 법적 조언을 넘어 데이터 분석과 위험 평가, 전략적 의사결정 지원으로 확장되고 있다.
규제 샌드박스나 프로토타이핑 규제 같은 실험적 규제 방식도 중요해지고 있다. 급변하는 기술 환경에서는 완벽한 규제를 미리 만들어놓기보다는, 제한적 범위에서 실험을 허용하고 그 결과를 바탕으로 규제를 정교화해나가는 방식이 더 효과적일 수 있다. 이는 규제 기관의 학습 능력과 적응력을 요구하는 새로운 규제 패러다임이다.
윤리적 AI 개발을 위한 거버넌스 체계 구축도 시급하다. 기술 개발 단계부터 윤리적 고려사항을 반영하고, 다양한 이해관계자들이 참여하는 거버넌스 메커니즘을 마련해야 한다. 이는 정부 규제만으로는 한계가 있고, 기업의 자율 규제와 시민사회의 감시, 학계의 연구가 조화롭게 결합되어야 가능하다.
결론
AI와 디지털 기술의 발전은 법학에 전례 없는 도전과 기회를 동시에 제공하고 있다. 기존 법체계로는 해결하기 어려운 새로운 문제들이 계속 등장하고 있지만, 동시에 더 정확하고 효율적인 법 서비스를 제공할 수 있는 가능성도 열리고 있다.
중요한 것은 기술 발전에 대해 무조건 수용하거나 거부하는 것이 아니라, 인간의 존엄성과 사회적 가치를 지키면서도 기술의 혜택을 최대화할 수 있는 균형점을 찾는 것이다. 이를 위해서는 법학이 다른 학문 분야와의 융합을 통해 새로운 관점과 해결책을 모색해야 한다.
알고리즘 책임, 개인정보보호, 플랫폼 규제 등 현재 제기되고 있는 쟁점들은 단순히 기술적 문제가 아니라 우리 사회가 추구하는 가치와 직결되어 있다. 효율성과 공정성, 혁신과 안전성, 자유와 통제 사이에서 어떤 선택을 할 것인가는 결국 사회 구성원들의 민주적 합의를 통해 결정되어야 할 문제다.
미래의 법률가는 기술을 이해하는 법률가가 되어야 한다. 동시에 기술이 아무리 발전해도 변하지 않는 법의 기본 가치인 정의와 공정성, 인간 존엄성에 대한 확고한 신념을 갖춰야 한다. AI 시대의 법학이 기술의 종속물이 아닌 인간을 위한 도구로 발전하기 위해서는 이런 균형감각이 무엇보다 중요할 것이다.