IEEE AI는 세 가지 새로운 표준을 발표 | 높은 수준에 관련된 윤리적 문제

IEEE는 최근 인공 지능 개발을위한 세 가지 새로운 표준을 발표했으며, IEEE는 "세계에서 가장 큰 첨단 기술 전문 조직"이라고 불렀다. 최근 발표 된 보고서에 따르면 인공 지능 표준은 인간에 우선 순위를 부여 할 것이며, 지속적인 개발 속도의 인공 지능 분야.

의 릴리스에서는 일반 원칙, 인공 지능 : "윤리적 디자인 : 인간 건강과 인공 지능 및 자율 시스템 우선 순위의 비전,"보고서는 새로운 인공 지능 개발 문제는 설명 여덟 개 부분으로 나누어 져 있습니다 시스템 할당, 방법 론적 지침 윤리 연구 및 디자인 학교, 안전하고 보편적 인 슈퍼 인공 지능과 인공 지능의 웰빙, 개인 정보 및 개인 액세스 제어, 재구성 자동 무기 시스템, 인도 주의적 / 경제 문제, 법.

일반 원칙을 결정하는 인공 지능 및 자율 시스템의 모든 유형에 적용되는 높은 수준의 윤리적 문제에 관련된 일반 원칙은 주요 고려 사항 세 가지 요소는 : 인권을 구현, 우선 순위가 인간과 자연 환경의 혜택을 극대화하기 위해, 인공 지능의 약화 위험과 부정적인 영향.

인간이자 원칙은 AI가 인간의 권리를 침해하지 않도록하는 방법을 고려를 필요로한다. 관련 책임 원칙은 AI가 책임을 져야 할 수 있도록하는 방법입니다. 오류 문제를 해결하기 위해, 공공의 혼란을 피하기, AI 시스템은 왜 자신의 특정 증명하기 위해, 프로그램 수준의 책임이어야합니다 그것이 작동하는 방법. 투명성의 운영 자율성의 원칙은 시스템이 투명해야한다는 것을 의미합니다. AI가 특정 결정을 내린 이유는 사람들이 자신의 방법을 찾을 수 있습니다 투명 수단이다.

AI 시스템에 인간 규범과 윤리적 가치를 어떻게 포함시키는 지에 대한 보고서는 인공 지능 시스템이 결정을 내리고 자신의 환경을 조작 할 때 자율적으로 변함에 따라 그들이 제공하는 사회를 채택하고 배우고 준수 할 수 있다고 설명했습니다 커뮤니티의 규범과 가치가 가장 중요합니다 AI 시스템에 가치를 포함시키는 목표는 다음 3 단계로 달성 할 수 있습니다 :

첫째, 특정 사회 또는 집단의 규범과 가치를 확인한다.

둘째, 이러한 규범과 가치를 AI 시스템으로 컴파일하는 것.

셋째, AI 시스템에 쓰여지는 규범과 가치의 타당성을 평가하십시오. 즉, 규범과 가치에 일관성 있고 현실적인지 여부를 평가하십시오.

위의 관련 연구는 기계 도덕, 기계 윤리, 도덕 기계, 가치 정렬, 인공 도덕, 안전 AI, 친숙한 인공 지능 등 인간의 규범과 가치를 인식하고 이해하며 결정을 내릴 때 이러한 문제를 고려하도록하는 컴퓨터 시스템을 개발하려는 사람들을 괴롭 히고 있습니다. 현재 두 가지 경로가 있습니다 : 하향식 경로와 상향식 경로 :이 분야에 대한 연구가 강화되어야합니다.

보고서는 또한 인공 지능 개발 방법론의 문제 여덟 개 보안 및 복지가 수집 윤리적 인 연구와 디자인, 인공 지능 및 일반 슈퍼 인공 지능, 자율 무기 시스템의 재건 및 보고서에 직면 경제 / 인도 주의적 문제를 안내 할 필요가 있다고 지적 인공 지능, 학계, 과학계뿐만 아니라 관련 정부 부처, 인공 지능, 윤리, 철학 및 정책의 많은 분야에서 전문 지식의 통합 분야에서 생각 지도자의 백개 이상 설명.이 EAD의 수정 버전입니다 (윤리적 정렬 된 디자인) 버전은 공유 할 수있는 250 개 이상의 글로벌 생각 지도자의 본질을 포함, 열세 장 증가 및보고 2017 년의 끝에서 시작됩니다.

IEEE 로보틱스 및 자동화 학회의 회장 사토시 타도코로가 이러한 표준 개발하고자하는 이유를 설명 : '로봇 및 자동화 시스템이 최근에 발생할 수있는 사회 문제에 더 많은 대중의 관심을 중요한 사회 혁신을 가져올 것이며, 발생할 수 큰 잠재적 이점 불행히도, 이러한 논의에서 허구와 상상력의 이유로 몇 가지 잘못된 메시지가있을 수 있습니다.

Tadokoro 계속 : 인공 지능의 AI 윤리적 기준에 추가하여,이 두 개의 다른 표준 'IEEE가 승인 과학 기술 지식과 지혜의 도입이 공통의 의사 결정 인류 전체의 이익을 극대화를 달성 할 수 있도록 사실에 근거한다.' 보고서에 소개 된 각 프로젝트는 도메인 전문가가 주도합니다.

첫 번째 기준은 '로봇 시스템, 지능 시스템 및 자동화 시스템에 대한 윤리적 표준'입니다.이 표준은 인공 지능 세계에서 인공 지능이 인간 행동에 미묘한 영향을 미칠 수있는 '밀어 넣기'를 탐구합니다.

두 번째 표준은 '자동 및 반자동 시스템에 대한 오류 방지 설계 기준'입니다. 자동 파일럿은 실패 할 경우 사람에게 위험 할 수있는 자동 기술을 포함하고 있습니다. 자동 파일럿은 당분간 가장 명백한 문제입니다.

세 번째 기준은 "도덕화 된 ​​인공 지능 및 자동화 된 시스템을위한 복지 메트릭"입니다. 인공 지능 기법의 이점이 인류에 어떻게 도움이되는지 설명합니다.

이러한 표준의 구현은 OpenAI 및 DeepMind 같은 회사처럼 빨라 인공 지능의 발전을 촉진하기 때문에, 빨리 우리가 생각했던 것보다, 그리고 심지어 자기 학습 인공 지능 시스템과 전문가의 '스마트'영역의 확장을 만들 수 있습니다 인공 지능 대규모 실업과 전쟁의 결과로, 세계에서 안정성을 훼손, 심지어 '살인 무기'의 창조로 전환 할 생각한다. 최근에는 무기로 사용되는 유엔 심각 인공 지능 기술의 필요성을 고려하는 사람들을 격려 논의하는 것이 중요하다 더 강력한 규제.

2016 GoodChinaBrand | ICP: 12011751 | China Exports