

유럽연합은 세계 최초의 인공지능에 관한 포괄적인 법률인 인공지능법을 발효하며 역사적인 발걸음을 내디뎠습니다. 유럽을 AI 거버넌스의 최전선에 서게 하는 이 혁신적인 법안은 혁신과 기본권 보호의 균형을 목표로 하는 위험 기반 규제 프레임워크를 확립합니다. 그러나 이 규제는 이른바 "브뤼셀 효과"(기술 혁신을 주도하지 않으면서도 시장 지배력을 통해 전 세계에 규칙을 강요하는 EU의 경향)의 또 다른 표현이기도 합니다.
미국과 중국이 막대한 공공 및 민간 투자(2024년 전 세계 투자의 각각 45%, 30%)로 AI 개발을 주도하는 반면, 유럽은 전 세계 AI 투자의 10%만 유치하고 있습니다. 이에 따라 EU는 규제를 통해 기술적 뒤처짐을 보완하려 하고 있으며, 이는 결국 전 세계 생태계에 영향을 미치는 표준을 부과하고 있습니다.
핵심 질문은 유럽이 책임감 있는 혁신을 촉진하는 환경을 조성하고 있는가, 아니면 단순히 수출을 위한 관료주의 경쟁할 수 없는 산업에 관료주의를 수출하고 있는가?
AI법은 유럽 기업뿐만 아니라 유럽 시장에서 사업을 운영하거나 AI 시스템이 EU 시민에게 영향을 미치는 기업에도 적용됩니다. 이러한 역외 관할권은 특히 GPAI 모델에 관한 조항에서 잘 드러나는데, 이 법의 106조는 공급업체가 '모델 훈련이 이루어지는 관할권에 관계없이' EU 저작권을 존중해야 한다고 명시하고 있습니다.
이러한 접근 방식은 EU가 자국 영토에 기반을 두지 않은 기업에도 규정을 적용하려는 시도로 간주하는 일부 관찰자들에 의해 강력하게 비판받고 있습니다. 비평가들에 따르면, 이는 글로벌 기술 생태계에 균열을 일으킬 수 있으며, 기업은 추가적인 규정 준수 비용을 피하기 위해 유럽 시장을 위한 별도의 제품 버전을 개발하거나 모든 시장에 대해 유럽 표준을 채택해야 합니다.
따라서 다국적 기술 기업들은 유럽 시장을 무시하는 것은 실행 가능한 선택이 아니지만, AI법을 준수하려면 상당한 투자가 필요하고 혁신의 범위가 제한될 수 있다는 점에서 어려운 입장에 처해 있습니다. 이러한 영향은 야심찬 시행 일정과 많은 조항의 해석상 불확실성으로 인해 더욱 증폭됩니다.
인공지능법은 2024년 8월 1일에 발효되지만, 시행은 시차를 두고 진행될 예정입니다:
이 규정은 위험 기반 접근 방식을 채택하여 AI 시스템을 허용할 수 없는 위험(금지), 높은 위험(엄격한 요건 적용), 제한된 위험(투명성 의무 포함), 위험 최소화 또는 없음(자유 사용)의 네 가지 범주로 분류합니다. 이 분류에 따라 개발자, 공급업체 및 사용자의 구체적인 의무가 결정됩니다.
AI 법의 가장 중요한 혁신 중 하나는 '블랙박스' 특성을 해결하기 위한 투명성 의무에 관한 것입니다.블랙박스"를 의미합니다. 이러한 의무에는 다음이 포함됩니다:
이러한 요건은 시민의 권리를 보호하기 위해 마련되었지만 기업, 특히 혁신적인 스타트업과 중소기업에 상당한 부담을 줄 수 있습니다. 개발 프로세스, 교육 데이터 및 의사 결정 논리를 상세히 문서화해야 하는 경우 혁신 주기가 늦어지고 개발 비용이 증가하여 유럽 기업은 규제가 덜 엄격한 다른 지역의 경쟁업체에 비해 불리한 입장에 처할 수 있습니다.

사건 C-203/22의 판결은 기업이 투명성 의무에 처음에 어떻게 저항하는지를 잘 보여줍니다. 통신 서비스 제공업체인 피고는 신용 평가 알고리즘의 로직을 공개하면 영업 비밀이 노출되어 경쟁 우위가 위태로워진다고 주장했습니다.6 . CJEU는 GDPR 제22조는 개인에게 자동화된 결정의 '기준과 논리'에 대한 설명을 요구할 수 있는 권리를 부여하고 있으며, 이는 비록 단순화되더라도 마찬가지라고 주장하며 이 주장을 거부했습니다.6 .
AI 법의 2단계 체계에 따르면, 대부분의 생성형 AI 모델은 1단계에 해당하며, EU 저작권 및 학습 데이터 요약을 준수해야 합니다.2 . 저작권 침해 주장을 피하기 위해 OpenAI와 같은 기업들은 요약 데이터 또는 라이선스 콘텐츠로 전환했지만, 문서화의 공백은 여전히 존재합니다.
AI 법에는 EU의 규제 영향력을 국경 너머까지 확장하는 구체적인 저작권 조항이 포함되어 있습니다. GPAI 모델 제공자는 반드시 준수해야 합니다:
인공지능법 제106조에 따르면 공급업체는 '모델 훈련이 이루어지는 관할권에 관계없이' EU 저작권법을 준수해야 합니다. 이러한 역외 접근 방식은 저작권법의 영토 원칙과의 호환성에 대한 의문을 제기하며 다른 관할권과의 규제 충돌을 야기할 수 있습니다.
글로벌 기술 기업에게 인공지능법은 '브뤼셀 효과'에 적응하고 전 세계적으로 유럽 표준을 준수할 것인가, 아니면 시장별로 차별화된 접근 방식을 개발할 것인가 하는 근본적인 전략적 선택의 기로에 놓이게 합니다. 몇 가지 전략이 등장했습니다:
일부 대형 기술 기업에서는 '이중 모델'의 운영 방식을 개발하고 있습니다:
이러한 접근 방식은 비용이 많이 들지만 글로벌 혁신을 저해하지 않으면서 유럽 시장에서의 입지를 유지할 수 있습니다. 그러나 이러한 세분화는 유럽 사용자가 다른 지역 사용자보다 덜 발전된 기술을 이용할 수 있게 되어 기술 격차가 확대될 수 있습니다.
유럽 인공지능법은 인공지능 규제의 전환점이 될 수 있지만, 그 복잡성과 모호한 해석으로 인해 이 분야의 혁신과 투자에 부정적인 영향을 미칠 수 있는 불확실성의 분위기가 조성되고 있습니다. 기업들은 몇 가지 도전 과제에 직면해 있습니다:
변화하는 규제 환경은 기업에게 상당한 위험을 초래합니다. '충분히 상세한 요약' 또는 '고위험' 시스템의 분류와 같은 주요 개념에 대한 해석은 여전히 모호합니다. 이러한 불확실성은 다음과 같은 결과를 초래할 수 있습니다:

'브뤼셀 효과'에 대한 논쟁은 유럽 기술 주권이라는 더 넓은 맥락에서 시작되었습니다. EU는 내부 혁신을 촉진해야 할 필요성과 비유럽 행위자들이 주로 개발한 기술을 규제해야 할 필요성 사이에서 균형을 잡아야 하는 어려운 입장에 처해 있습니다.
2024년 유럽 기업은 전 세계 AI 투자의 10%만을 유치한 반면, 미국과 중국은 대규모 공공 및 민간 투자, 혁신 친화적인 정책, 빅데이터에 대한 접근성을 바탕으로 이 분야를 지배하고 있습니다. 언어적, 문화적, 규제적 분열로 인해 유럽은 전 세계에서 경쟁할 수 있는 기술 '챔피언'을 배출하는 데 어려움을 겪고 있습니다.
비판론자들은 유럽의 규제 중심 접근 방식이 혁신을 더욱 억제하고 투자를 저해할 위험이 있다고 주장하는 반면, 지지자들은 신뢰할 수 있는 규제 프레임워크가 실제로 윤리적이고 안전한 '설계상' AI의 개발을 촉진하여 장기적인 경쟁 우위를 창출할 수 있다고 믿습니다.
인공지능법의 '브뤼셀 효과'는 기술에 대한 유럽의 접근 방식에 근본적인 긴장감이 있음을 강조합니다. 규제를 통해 글로벌 표준을 설정하는 능력은 기술 혁신의 리더십과 상응하지 못한다는 것입니다. 이러한 비대칭성은 이러한 접근 방식의 장기적인 지속 가능성에 대한 의문을 제기합니다.
유럽이 자체 개발하지 않은 기술을 계속 규제하면 기술 의존도가 높아져 빠르게 진화하는 글로벌 생태계에서 규정이 점점 더 관련성이 떨어지는 상황에 처할 위험이 있습니다. 또한 비유럽 기업들은 유럽 시장에서 점진적으로 철수하거나 제한된 버전의 제품을 유럽에서만 제공함으로써 글로벌 발전으로부터 점점 더 고립되는 '디지털 요새 유럽'을 만들 수 있습니다.
반면에 EU가 규제 접근 방식과 혁신을 촉진하는 효과적인 전략의 균형을 맞출 수 있다면 미국 자본주의와 중국 국가 통제 사이의 '제3의 길'을 효과적으로 정의하고 인권과 민주주의 가치를 기술 발전의 중심에 둘 수 있습니다. 프랑스에서는 방대한 프로그램이 이렇게 말합니다.
유럽에서 AI의 미래는 기본권을 보호하는 AI법의 효과뿐만 아니라 혁신에 대한 적절한 투자와 함께 규제를 수반하고 규제 프레임워크를 덜 억압적으로 단순화할 수 있는 유럽의 능력에 따라 달라질 것입니다. 그렇지 않으면 유럽은 AI 규제에 있어서는 세계 선두이지만 개발과 실행에서는 한계에 부딪히는 역설적인 상황에 처할 위험이 있습니다.