결과에 대해 설명할 수 없습니다.
감사·보고·민원 상황에서 AI를 신뢰할 수 없게 됩니다.
특정 상황에서만 이상한 결과가 발생합니다.
편향은 조용히 쌓입니다. 발견될 때는 이미 문제가 된 이후입니다.
무엇이 바뀌었는지 추적할 수 없습니다.
모델 업데이트 후 결과가 달라져도 원인을 찾을 방법이 없습니다.
AI 신뢰성
공인된 AI 안전 원칙을 실현합니다.
AI가 판단해도 최종 결정의 책임은 사람에게 있습니다.
거버넌스 위원회
담당자 지정
승인 절차 의무화
같은 조건이라면 언제나 같은 결과가 나오도록 설계합니다.
모델카드
데이터 문서화
로그 기반 재현 검증
결과와 함께 판단 근거와 영향 요인을 제공합니다.
점수 + 근거 텍스트 출력
평가 기준 사전 공개
문제가 발생했을 때 사람이 개입하고 중단할 수 있도록 설계합니다.
실시간 모니터링
리포팅 채널
이상 시 사용 중단
모든 변경은 승인 절차와 함께 이력으로 남기고 추적할 수 있습니다.
변경 승인 절차
증빙 보관
정기 재검증
에이전트는 에이전트에 특화된 기준 아래 관리됩니다.
위임 범위 제어
오케스트레이션 추적
판단 경로 감사
AI 윤리성
윤리는 선언이 아니라
관리되는 시스템입니다.
정부기관 KISDI와 함께 개발한 윤리 점검표를 기준으로
설계부터 운영까지 전 과정을 관리합니다.
01
인권보장
이용자를 인격적으로 존중하며, 어떠한 이유로도 차별하지 않습니다.
02
프라이버시 보호
불필요한 개인정보는 수집하지 않으며, 요청 시 절차에 따라 파기합니다.
03
다양성 존중
AI 모델의 편향 가능성을 인지하고, 공정성 확보를 위한 통제 조치를 취합니다.
04
침해 금지
다양한 전문가가 라벨링에 참여하고, 교육·합의·검증을 통해 편향을 최소화합니다.
05
공공성
이용자의 합리적 의사결정을 지원하고 사회적 영향을 지속적으로 검토합니다.
06
연대성
이해관계자의 의견을 반영하고 외부·정부기관과 긴밀히 협력합니다.
07
데이터 관리
체계적인 데이터 관리 방안을 마련하고 목적 달성 후 절차에 따라 파기합니다.
08
책임성
윤리기준 준수를 위한 담당자를 지정하고 오류 책임 소재와 개선 절차를 갖춥니다.
09
안전성
오류가 발생하면 즉시 알리고 신속하게 후속 조치를 취합니다.
10
투명성
AI의 한계와 활용 범위를 사전에 고지하고 설명 요청에 성실히 응합니다.
