AI 안전연구소는
2024년 AI 서울 정상회의 선언에 따라 국내외 최고 전문가를 포함하나
글로벌 AI 안전 네트워크와 협력을 통해 연구를 수행합니다.
-
AI안전 정책수 선도
-
AI 안전성을 높이기 위한 실험과 분석을 수행하며, 국내에 최신 기술을 도입하기 위한 허브 역할
-
AI 기술 발전에 따라 발생할 수 있는 새로운 위험을 예측하고 대응할 수 있는 연구
채용에 관한 자세한 내용은 한국전자통신연구원 채용 웹페이지를 참고하세요.
-
우리가 찾는 인재
-
우리의 목표는 AI 안전성에 대한 과학적 이해와 체계적인 관리 방안을 정립하고, AI의 위험을 완화하기 위한 선도적인 연구를 추진하는 것입니다.
-
이를 위하여, 협업, 혁신, 다양성을 중요하게 여기며, 글로벌 영향력을 미치는 역동적 환경에서 일할 수 있는 책임감 있고 열정적인 인재를 찾고 있습니다.
-
AI에 특화된 전문가뿐만 아니라, 안전 관리 전문가, SW 프레임워크 개발자 등 다양한 도메인에서 관련 경험을 갖춘 전문가를 환영합니다.
-
-
한국 AISI에서는 다음과 같은 직무 역량과 경험을 가진 분들을 찾습니다.
-
AI 모델과 시스템을 더욱 안전하고, 신뢰할 수 있도록 만드는 정책과 지침 수립
-
글로벌 AI 윤리 및 지침 관련 연구
-
안전 프레임워크 및 평가 : 다양한 도메인(안전 필수 소프트웨어, 원자력, 의료 등)에 대한 시스템 개발 방법론에 대한 이해와 개발 경험
-
최신 LLM 활용 방법론 또는 기술적 접근 방식에 대한 이해(Chain of Thought, Retrieval-Augmented Generation 등)
-
LLM 성능 벤치 마크 및 성능 테스트 경험
-
프롬프팅을 활용한 안전성 검증 및 보안 공격(Jailbreak, Red Team 등) 관련 경험
-
최신 AI 관련 연구(Machine Learning, 최적화 기술, LLM, 생성형 모델, 강화학습 등)
-
기술적 토론이 가능한 영어 구사 능력
-