요약 한 줄
2026년 시행되는 AI 기본법은 제약·바이오 기업이 활용하는 AI가 고영향 AI에 해당하는지 판단하고, 투명성 고지·안전성 확보·위험관리·설명가능성·문서화 등 강화된 컴플라이언스를 갖추도록 요구하는 기본 법률입니다.

1. AI 기본법 개요와 시행 일정
‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법’(이하 “AI 기본법”)은 인공지능 기술의 건전한 발전을 지원하고 신뢰 기반을 마련하기 위한 기본 법률입니다. 이 법은 2024년 12월 국회를 통과하여 2025년 1월 21일 공포되었으며, 1년 후인 2026년 1월 22일부터 시행될 예정입니다. 특히 디지털 의료기기에 관한 규정은 2026년 1월 24일부터 시행됩니다.
AI 기술 발전의 혜택과 함께 높아진 윤리·안전 우려를 법적으로 다루고자 제정된 것으로, 기업과 정부의 역할 및 책임을 명확히 규정합니다.
주요 내용 한눈에 보기
AI 기본법은 용어 정의, 정부의 정책 수립 및 조직 구성, 인공지능사업자(기업)의 책임과 의무, 신뢰성 확보를 위한 절차 등을 포괄합니다. 특히 제약·바이오 기업과 직접 관련된 조항을 통해 “고영향 인공지능”, “생성형 인공지능” 등에 대한 정의와, 이를 다루는 기업의 준수 사항을 규정하고 있습니다.
2. 고영향 AI란 무엇인가?
한 줄 정의
고영향 인공지능(High-Impact AI)이란 사람의 생명, 신체 안전, 기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 AI 시스템을 말합니다.
법령상 주요 예시
- 보건의료 분야: 의료 서비스의 제공·운영 (「보건의료기본법」 제3조 제1호)
- 의료기기 및 디지털 의료제품: 의료기기 및 디지털 의료기기의 개발·이용 (「의료기기법」 제2조 제1항, 「디지털의료제품법」 제2조 제2호)
- 에너지 및 식수: 에너지 공급, 먹는물 생산 공정
- 원자력 시설: 핵물질·원자력시설의 안전한 관리
- 공공·사회적 결정: 범죄수사 목적의 생체인식, 채용·대출 심사, 교통수단 운영, 공공서비스 자격 결정, 교육 분야의 학생평가 등
제약·바이오 업계와의 연관성
의료·보건, 디지털 헬스/의료기기를 포함하여 사회 안전과 권리에 중대한 영향을 줄 수 있는 분야의 AI가 고영향 AI에 해당합니다. 제약바이오 기업이 환자 진단 AI나 디지털 치료제와 같이 의료 분야에 AI를 활용한다면, 이 법의 고영향 AI 규정을 적극 고려해야 합니다.
고영향 AI로 분류되면 기업에는 추가적인 안전성 확보 의무 등이 부과되므로, 자사 AI 기술이 해당되는지 사전 검토가 필요합니다. (자세한 의무는 아래 ‘인공지능사업자의 주요 의무’에서 다룹니다.)
3. 인공지능사업자의 주요 의무
AI 기본법은 “인공지능사업자”(AI 비즈니스를 영위하는 모든 기업·기관)에게 여러 핵심 의무를 부과합니다. 제약·바이오 기업도 AI 시스템을 개발하거나 활용한다면 인공지능사업자로 간주될 수 있으므로, 아래 의무 사항을 숙지해야 합니다.
3-1. 투명성 의무 – AI 사용 사전 고지 (제31조)
고영향 AI나 생성형 AI를 이용한 제품·서비스를 제공하는 경우, 사용자에게 해당 AI가 사용됨을 미리 알려야 합니다. 쉽게 말해, AI 기반 서비스임을 명확히 고지하는 것입니다.
- 병원용 진단 소프트웨어에 AI 알고리즘이 쓰인다면 환자나 의료진에게 “AI에 기반한 분석 결과”임을 안내해야 합니다.
- 생성형 AI를 통해 만들어진 텍스트·이미지 등 결과물을 제공할 때는 해당 결과물이 AI에 의해 생성되었음을 표시해야 합니다.
- 딥페이크 등 실제와 유사한 가상의 콘텐츠를 제공하는 경우에도, 사용자가 이를 명확히 인지할 수 있도록 표시해야 합니다.
이러한 투명성 확보 조치는 의무사항이며, 위반 시 최대 3천만원 이하의 과태료가 부과될 수 있습니다. 따라서 제품 설명서, 이용약관, 화면 표시 등에 AI 사용 여부를 분명히 밝혀야 합니다.
제약바이오 분야에서도 AI 신약개발 플랫폼이나 의료 AI 챗봇 등을 사용자(의사, 환자 등)에게 제공한다면, 사전에 AI 활용 사실을 공지하는 절차가 필요합니다.
3-2. 안전성 확보 의무 – 대규모 AI(초거대 모델) (제32조)
AI 기본법은 대규모 AI 시스템에 대한 안전성 확보 조치도 규정하고 있습니다. “학습에 사용된 누적 연산량”이 대통령령으로 정하는 기준을 넘는 거대한 AI 시스템(예: 초거대 AI 모델)을 개발·운용하는 경우, 인공지능사업자는 AI 시스템 전 과정에 걸쳐 위험을 식별·평가·완화하고 사고를 모니터링·대응하는 위험관리체계를 구축해야 합니다. 그리고 이러한 안전조치 이행 결과를 과학기술정보통신부 장관에게 제출해야 합니다.
※ 현재 기준 미확정
“누적 연산량 기준” 등 세부 사항은 아직 결정되지 않았습니다. 추후 시행령에서 구체화될 예정이며, 이에 따라 어느 범위의 기업이 대상이 될지 판가름 날 것입니다. 제약기업이 대형 AI 모델(예: 신약 후보 물질 설계에 사용하는 초거대 모델 등)을 개발하는 경우, 해당 기준에 유의해야 합니다.
3-3. 고영향 AI 여부 사전 검토 (제33조)
인공지능사업자는 AI 제품이나 서비스를 출시하기 전에 해당 AI가 고영향 AI에 해당하는지 자체 검토해야 합니다. 자체 판단이 어려운 경우, 과학기술정보통신부 장관에게 공식 확인을 요청할 수 있습니다. 과기정통부 장관은 전문위원회 자문 등을 거쳐 그 AI가 고영향에 속하는지 확인하게 됩니다.
제약바이오 회사의 입장에서는, 자사 AI 기술이 앞서 언급한 고영향 영역에 속하는지 면밀히 점검해야 합니다. 예컨대 디지털 치료제나 AI 진단기기는 의료기기로서 고영향 영역(의료기기 및 디지털의료제품)에 포함될 가능성이 높습니다. 이런 경우 내부 검토 기록을 남기고, 필요 시 정부에 질의하여 분류를 명확히 해두는 것이 바람직합니다.
3-4. 고영향 AI의 안전성·신뢰성 확보 조치 (제34조)
고영향 AI를 제공하는 사업자에게는 일반 AI보다 강화된 안전성·신뢰성 확보 조치가 요구됩니다. 이는 의무 사항으로, 고영향 AI 시스템의 개발·운영 전반에 걸쳐 다음과 같은 내부 통제체계를 갖추라는 취지입니다.
- 위험관리방안 수립·운영
- 결과 산출 설명체계(설명가능성 확보)
- 이용자 보호방안 수립·운영
- 인간의 관리·감독 절차 유지
- 문서화 및 기록 보관
- 그 밖에 국가인공지능위원회가 정한 사항
제약바이오 기업이 의료 AI 솔루션을 개발·판매한다면, 위 항목들을 충족하는 품질관리 및 거버넌스 체계를 마련해야 합니다. 의료기기 규제(예: 식약처의 소프트웨어 의료기기(SaMD) 가이드라인)와도 일맥상통하는 부분이 많으므로 함께 고려해야 합니다.
3-5. 인공지능 영향평가 권고 (제35조)
영향평가란 AI 시스템이 사람의 기본권에 미칠 영향을 사전에 평가하는 절차를 말합니다. AI 기본법은 고영향 AI를 제공하는 기업에게 자체적으로 영향평가를 실시하도록 노력할 것을 규정하고 있습니다. 법적 강제는 아니지만 고영향 AI라면 AI 윤리·인권 영향평가를 해보는 것이 바람직하다고 권고하는 수준입니다.
특히 공공기관 등이 고영향 AI 제품이나 서비스를 도입하려는 경우, 영향평가가 수행된 제품을 우선 고려하도록 규정되어 있습니다. 향후 정부 조달이나 의료기관 도입 시, AI 영향평가를 거친 솔루션이 선호될 수 있음을 시사합니다.
3-6. 해외 AI 기업의 국내대리인 지정 (제36조)
글로벌 제약사나 해외 AI 기업이 국내에 영업소나 주소 없이 한국 사용자에게 AI 서비스를 제공하는 경우, 국내대리인을 지정해야 하는 의무도 생깁니다. 이용자 수, 매출액 등 일정 기준(대통령령으로 정함)을 충족하는 해외 인공지능사업자는 한국 내에 대리인을 서면 지정하고 과기정통부에 신고해야 합니다.
제약바이오 분야에서는, 해외에 본사를 둔 AI 신약개발 플랫폼 회사가 한국 제약사들에게 서비스를 제공하는 경우 이 요건에 해당될 수 있습니다. 해당 기업들은 2026년 시행 전에 국내 법인이나 대리인을 선정하여 법 준수를 준비해야 합니다.
4. 제약·바이오 기업을 위한 실무 체크리스트
- AI 기술 현황 파악: 개발·활용 중인 AI를 모두 목록화하고, 특히 의료/헬스케어 관련 AI인지 분류합니다.
- 고영향 AI 해당 여부 검토: 고영향 영역(의료기기, 디지털의료제품 등)에 포함될 가능성이 있는 AI에 대해 내부 검토 기록을 남깁니다.
- 투명성 확보 계획: AI 적용 제품·서비스에는 사용자 고지 문구를 마련하고, AI 생성 결과물에는 별도 표지 또는 워터마크 부착 방안을 검토합니다.
- 위험관리 및 품질체계 점검: ISO 14971과 유사한 리스크 관리 체계를 도입하고, 오류 모니터링 및 사용자 피드백 창구를 구축합니다.
- 설명가능성 및 문서화: 알고리즘의 주요 의사결정 기준과 데이터 사용 내역을 나중에 설명할 수 있도록 기록하고, 변경 관리·검증 결과를 문서화합니다.
- 이용자 보호 프로토콜: AI 오작동으로 인한 환자 위험, 사용자 피해 발생 시 대응할 SOP를 정립합니다.
- 국내대리인 검토(해외 기업): 국내 지사가 없는 해외 법인은 국내대리인 지정 대상인지 검토합니다.
- 내부 교육 및 컴플라이언스 체계 구축: 경영진부터 개발자, 규제대응팀까지 AI 기본법 의무를 교육하고, 기존 개인정보보호·의료법 컴플라이언스에 AI 체크리스트를 추가합니다.
5. FAQ – AI 기본법과 제약·바이오 기업
Q1. AI 기본법은 언제부터 적용되나요?
2026년 1월 22일부터 시행되며, 디지털 의료기기 관련 규정은 1월 24일부터 별도 시행됩니다.
Q2. 제약·바이오 기업도 인공지능사업자에 해당하나요?
AI를 개발하거나 활용하는 경우 인공지능사업자로 간주될 수 있으며, 관련 의무 규정을 적용받습니다.
Q3. 디지털 치료제나 AI 진단 소프트웨어는 고영향 AI인가요?
환자 진단·치료에 직접 관여하는 의료기기·디지털의료제품에 해당하므로 고영향 AI로 분류될 가능성이 높습니다.
Q4. 생성형 AI가 만든 콘텐츠를 제공할 때도 표시 의무가 있나요?
네. 텍스트, 이미지, 영상 등 생성형 AI가 만든 결과물은 AI에 의해 생성된 것임을 명확히 표시해야 합니다.
Q5. AI 기본법과 의료기기 규제는 어떻게 함께 보아야 하나요?
AI 기반 의료기기는 의료기기법, 디지털의료제품법, AI 기본법이 동시에 적용될 수 있으므로, 중복·충돌 여부를 종합적으로 검토해야 합니다.
6. 맺음말 – 규제를 신뢰 기반 경쟁력으로 전환하기
AI 기본법은 단순한 제재법이 아니라, 인공지능 기술의 안전하고 책임 있는 활용을 통해 사회적 신뢰를 높이려는 기본법입니다. 제약·바이오 기업들은 이 법을 규제로만 보기보다, 환자와 규제당국의 신뢰를 확보하고 장기적인 AI 혁신을 가속화하는 기회로 활용할 수 있습니다.
곧 시행령 등 세부 규정이 마련될 예정이므로, 특히 고영향 AI로 분류될 가능성이 높은 의료 AI 기업은 한발 앞서 컴플라이언스 체계를 정비하고 필요 시 법률 자문을 통해 리스크를 점검하는 것이 바람직합니다.
상담 안내 (Call to Action)
제약·바이오 기업의 AI 기본법 대응 전략, 고영향 AI 판단, 내부 규정 정비, 영향평가 도입 등이 필요하시다면 전문적인 법률 자문을 통해 체계적으로 준비하실 것을 권합니다.
AI 시대의 제약·바이오 혁신은 윤리와 신뢰 위에서만 가능합니다. 이번 AI 기본법을 준수하는 노력이 장기적으로는 환자 안전과 데이터 신뢰 확보, 그리고 의료 AI 발전으로 이어질 것입니다.

'커뮤니케이션' 카테고리의 다른 글
| FDA의 바이오시밀러 전략 대전환: 임상시험 축소와 상호교환성 통합의 의미 (0) | 2025.12.07 |
|---|---|
| AI가 작성한 계약서, 왜 제약바이오 기업에는 특히 위험한가? (0) | 2025.12.05 |
| AI-네이티브 바이오텍이 다시 투자자를 불러들이고 있습니다 (0) | 2025.11.29 |
| 미국, ‘브랜드·특허 의약품 100% 관세’…한국 제약사의 대응은? (1) | 2025.09.29 |
| 미국·유럽·한국의 타이레놀 라벨 개정 및 자폐 치료제 재표시 계획: 국가별 반응 정리 (0) | 2025.09.24 |