AI안전연구

AI 안전 연구 부문은 첨단 AI 기술 발전에 따라 발생할 수 있는 새로운 위험을 예측하고 대응할 수 있는 연구를 선도합니다.

AI의 안전하고 책임있는 사회적 통합을 보장하기 위한 선제적이고 혁신적인 AI 안전 기술을 연구하고, 국내외 협력연구를 통해 신뢰할 수 있는 AI 환경을 조성하는 것을 목표로 합니다.

AI 안전 연구 중점 분야

고도화되는 AI 시스템이 초래할 수 있는 잠재적 위험을 식별, 분석 및 완화하는 연구를 중점적으로 수행합니다.

현재와 미래의 AI 안전 문제를 해결하기 위해 선제적 분석과 과학적 연구를 바탕으로 다음과 같은 주요 업무를 수행합니다.

  • 핵심 AI 안전 기술 개발

  • 미래 위험 연구 및 사전 대응

핵심 AI 안전 기술 개발

  • 편향 완화 및 설명 가능성

    • 유해한 편향 없이 투명한 의사결정을 제공하는 AI 모델의 개발은 AI 안전을 위한 필수 요건으로 AI 시스템의 작동 방식을 보다 명확하게 이해할 수 있도록 하는 설명 가능한 AI 기술과 윤리적 문제 및 사회적 차별을 야기하는 데이터와 모델 편향 완화 기술을 연구합니다.

  • 사이버 보안 및 딥페이크 탐지

    • AI가 민감한 분야에서 활용됨에 따라, 사이버 공격에 대한 방어와 딥페이크와 같은 합성 미디어의 탐지 및 관리 기술을 강화하기 위한 연구를 진행합니다.

미래 위험 연구 및 사전 대응

  • 미래 AI 위험 예측 및 완화

    • AI 기술이 범용 인공지능(AGI)과 같은 고도화된 모델로 발전함에 따라 발생할 수 있는 장기적인 위험에 대해 사전 대응 연구를 진행합니다.

      AI 시스템이 인간의 가치와 일치하는 방향으로 작동하도록 보장하는 정렬(alignment) 연구, 공존(coexistence) 전략, 미래 AI 기술을 위한 보호 메커니즘 연구ㆍ개발을 포함합니다.

  • 장기적 AI 위험에 대한 예측과 예방적 연구

    • 새로운 AI 능력의 광범위한 영향에 대해 탐색적 연구를 수행하며, 예측할 수 없는 AI 기술 발전에 적응할 수 있는 안전 기술을 연구합니다.

 

AI 안전 연구 부문은 AI 기술의 발전이 윤리적 기준과 사회적 가치를 준수할 수 있도록 선제적인 연구에 앞장서며,
AI 안전 연구의 선도적 역할을 할 것입니다.