인재모집

AI 안전연구소는

2024년 AI 서울 정상회의 선언에 따라 국내외 최고 전문가를 포함하나
글로벌 AI 안전 네트워크와 협력을 통해 연구를 수행합니다.

  • AI안전 정책수 선도

  • AI 안전성을 높이기 위한 실험과 분석을 수행하며, 국내에 최신 기술을 도입하기 위한 허브 역할

  • AI 기술 발전에 따라 발생할 수 있는 새로운 위험을 예측하고 대응할 수 있는 연구

채용에 관한 자세한 내용은 한국전자통신연구원 채용 웹페이지를 참고하세요.

  • 우리가 찾는 인재

    • 우리의 목표는 AI 안전성에 대한 과학적 이해와 체계적인 관리 방안을 정립하고, AI의 위험을 완화하기 위한 선도적인 연구를 추진하는 것입니다.

    • 이를 위하여, 협업, 혁신, 다양성을 중요하게 여기며, 글로벌 영향력을 미치는 역동적 환경에서 일할 수 있는 책임감 있고 열정적인 인재를 찾고 있습니다.

    • AI에 특화된 전문가뿐만 아니라, 안전 관리 전문가, SW 프레임워크 개발자 등 다양한 도메인에서 관련 경험을 갖춘 전문가를 환영합니다.

  • 한국 AISI에서는 다음과 같은 직무 역량과 경험을 가진 분들을 찾습니다.

    • AI 모델과 시스템을 더욱 안전하고, 신뢰할 수 있도록 만드는 정책과 지침 수립

    • 글로벌 AI 윤리 및 지침 관련 연구

    • 안전 프레임워크 및 평가 : 다양한 도메인(안전 필수 소프트웨어, 원자력, 의료 등)에 대한 시스템 개발 방법론에 대한 이해와 개발 경험

    • 최신 LLM 활용 방법론 또는 기술적 접근 방식에 대한 이해(Chain of Thought, Retrieval-Augmented Generation 등)

    • LLM 성능 벤치 마크 및 성능 테스트 경험

    • 프롬프팅을 활용한 안전성 검증 및 보안 공격(Jailbreak, Red Team 등) 관련 경험

    • 최신 AI 관련 연구(Machine Learning, 최적화 기술, LLM, 생성형 모델, 강화학습 등)

    • 기술적 토론이 가능한 영어 구사 능력