Google은 군대와 다시 협력합니다 .AI 윤리의 경계는 어디에 있습니까?

이야기는 올해 3 월 초에 시작됩니다.

올해 3 월 Google은 미 국방부와 협력하여 무인 항공기를위한 인공 지능 시스템을 개발할 수 있도록 지원하는 프로젝트를 발표했습니다.이 프로젝트 코드는 Project Maven입니다.

뉴스는 나왔다, 즉시 낙타를 구축하는 데 도움이 국방부, 오픈 소스 구글 직원은 여전히 ​​다른 사람들이 구글 있도록 기계의 사용에 의문을 제기 ;. 악 무인 감시 기술을 믿고 구글 직원이 프로젝트에 강한 불만을 표현 급증 학습 기술이 윤리적 기준을 충족하든, 그들은 펜타곤이이 기술을 대인 무기로 사용하게 될 것이며 기술 낙천가가 결코 원하지 않는 해를 가져올 것이라고 믿는다.

그 후, 구글 이상 3100 직원 청원, CEO Sandahl에게 편지를 서명 · 항의 Pichardo 이라크 (피 차이 (Sundar Pichai)).

구글 직원이. 더 발효 4 월 말에 편지 피 차이 (Sundar Pichai) 일을 서명 용지가 발견, 구글은 모토 세 가지의 행위의 회사 코드의 시작 부분에 강조 '악하지 말라'을 따르는 십팔년을 삭제. 만 기준 마지막에, 아직 삭제되지 문장이 있었다 : '당신이 뭔가를 볼 경우, 옳은 일이 아니라고 생각 큰소리로 말을 악하지 말고, 기억!'

금요일에, 주간 '일기 예보'정기 회의, Google 클라우드 CEO 다이앤 그린 (다이앤 그린은) 발표, 구글은 프로젝트 메이븐의 만료 후 미 국방부와 협력하여 종료됩니다 .

이것은 의심 할 여지없이 큰 행사입니다. '승리의 뉴스'.하여 보고서의 장에서 급증과 함께,이 문제는 '타협, 그리고 국방부의 계약 중지 직원의 구글 방식으로 내부의 어처구니없는 패스를 Google에 일시적으로 보인다 닫히기.

기사, 일곱 개 원칙을 나열하고 구글은 구글 반전 사람들이 한숨에서 미군과의 협력을 종료하지 않음을 지적했다 : "우리의 원칙은 구글의 AI"하지만 어제, 구글의 CEO 인 피 차이 (Sundar Pichai)는 서명 된 자격을 발표했다. 그것은 분명 'AI의 적용을 추구하지 않는'악의 기술적 인 문제가 여전히 악한 사람이지만, 생각을 자극 다시 AI 윤리.

AI 윤리의 경계는 어디에 있습니까?

최근에 Google이 평평하지 않은 경우 Amazon Alexa의 삶은 쉽지 않습니다.

아마존의 에코 장치는 사적인 대화를 허가없이 녹음하고 사용자의 대화 상대 목록에있는 임의의 사람에게 오디오를 전송 한 혐의로 기소됐다. 알렉사의 무서운 '인간의 비웃음'사건이 끝난 것은 이번이 마지막이다. 얼마나 오래.

알렉사이 문제에 아마존의 응답이 혼자 거리가 멀다. 일찍이 2016로, 트위터에 테이 로봇 채팅 라인에.라는 사람이 19 세 소녀는 마이크로 소프트가 개발 한 인공 지능 기술은 자연 언어 학습을 사용 농담을 가진 사람처럼, 사용자 상호 작용 및 데이터 처리 및 모방 인간의 대화를 통해 기어 스크립트와 표현 패키지를 채팅하지만 하루 미만의 라인에, 테이는 인종 청소를 강력히 요구 한입에 '조정'한 수 2. 무례하고 극단 주의자 인 마이크로 소프트는 '시스템 업그레이드'를 위해이를 철회해야했다.

마이크로 소프트 로봇 테이 극단적 인 전망이 매우 얇은 두려움을 생각하는 많은입니다. 스마트 상대성 (aixdlun) 애 밍 애널리스트는 AI의 병폐가, AI 윤리적 문제가 점점 더 가치가 될 것입니다 하이라이트와 함께. 어디 AI 윤리의 경계가, 있다고 생각? 우리는 몇 가지 질문을 이해해야합니다.

1. 마 안드로이드 시민 대상이?

인공 지능의 급속한 발전과 함께, 로봇은 더 강력한 지능을 가지고 있습니다. 기계와 인간 사이의 격차가 점차 감소하고, 미래에 등장 할 로봇이 인간의 두뇌 신경 위안의 수와도 비교 생물학적 두뇌를 가지고있다. 미국의 전문가들은 심지어 미국의 미래의 미래를 예측 : 세기의 한가운데에, 비 생물학적 지능이 모든 지혜 억 회 오늘 할 것이다.

시민은 더 이상 문제가 로봇이없는 것으로 보인다. 지난 10 월, 세계 최초의 로봇 시민권 소피아가 태어났다, 이것은 또한 인간의 생물 뒤에 동등한 지위와 인간뿐만 아니라 자신의 정체성을 할 수있는 권리가 있음을 의미 , 의무 및 사회적 지위.

과거 미국의 철학자, 과학자, 국회의원들은 모두 철저히 논쟁을 벌였습니다 .2016 년 유럽 집행위원회의 법률 업무위원회 유럽 ​​연합 집행위원회 (European Commission)는 가장 발전된 자동화 로봇을 '전자 인물'로 포지셔닝해야한다는 운동을 발표했으며 지능형 로봇을 자체 목적으로 등록하는 것이 좋습니다. 세금 납부, 연금 및 연금 기금 계정이 법적 절차가 통과되면 의심 할 여지없이 전통적인 민간 대상 시스템에서 일제히 일어날 것입니다.

엄격한 의미에서, 로봇은 시도 자체가 로봇 AI 유죄 판결의 행동을 비난하는 경우. 또한 독립적 인 의지와 법적 천연 골재 자신을 구별하고있다, 자연 사람이 수명이 아닌 중간에 라인을 수행합니다.

2. 알고리즘 차별은 불공정하다.

의 검색 엔진이 블랙 '오랑우탄'레이블로 표시되기 때문에 AI가 판단 실수를 비난, 그것은 구글이 '인종 차별'비난에 적발 된 가장 진보 된 영상 인식 기술을 사용하여 '차별', 자주 ; 블랙 하버드 교수 풀 데이터 개인 정보 보호 연구소 타냐 스위니 Google 검색에서 발견 큰 머리띠의 대부분은 '답지 못한 헤어 스타일'에 대한 검색은 '검은 기능을'있는 동안 이름이 팝업 가능성 범죄 기록 관련 광고 - Google 스마트 애드 센스의 결과입니다.

그리고이 위험 자체가 바로 '새로운 빛'아니다 - 결국, 검은 '오랑우탄'라벨, 조금 불쾌 아무것도 인공 지능과 의사 결정 표시된 사진은 개인의 운명에 관한보다 실용적인 분야로 성장하고있다. 이 지역 '불공정'눈 감아 효과적으로 고용, 복지와 개인 신용에 영향을 미치지는 어렵다.

마찬가지로, 모집 산업의 AI 침공, 금융 부문, 스마트 검색 필드 등, 우리가 훈련 '알고리즘 기계'로, 알고리즘은 회사 트리니다드을 선택할 수 있도록 할 정말 절대 안전한. 현대 사회에 대한 절망에 수 잘 될 것입니다 그 사람을 선택하십시오.

불순한 동기와 함께 태그를 재생하는 차별의 원인은? 어디 그래서? 기계 계산 된 결과가 불공정, 차별 될 수있는 버그 데이터 피팅 편차, 또는 프로그램입니다 잔인하고 그것을 정당화?이가 토론하는 것은 의문입니다.

3. 데이터 보호는 AI 윤리의 핵심입니다.

사이버 공간은 사실적인 가상 존재이며 육체적 공간이없는 독립적 인 세계입니다. 인간은 육체를 분리하고 '디지털 인격'을 소유 한 '디지털 생존'을 실현했습니다. 소위 디지털화 된 개인성은 '개인 정보 수집'입니다. 그리고 사이버 공간에서의 개인 이미지 윤곽을 잡는 과정, 즉 디지털 정보로 확립 된 인격.

사용자의 습관과 데이터 정보를 가지고 인터넷과 빅 데이터의 지원에 따라 AI 환경에서. '히스토리 데이터'축적 기계 악마의 기초 인 경우 자본이 깊은의 다음 구동 전력 그 이유.

의 정치 하나에 따라 광고 투자의 종류, 페이스 북 회사 정보 침해는 분석이 회사는 캠브리지 (캠브리지 ANALYTICA) 인공 지능 기술의 사용, 잠재적 인 유권자의 '심리적 특성'에 대한 지불 정치 광고를 실행라고 경향, 정서적 특성, 그리고 많은 거짓 뉴스의 취약성의 정도, 인구가 빠르게 증가 노출을 확산 할 수 있고 사람들의 가치 판단에 영향을 미칠 것이다. 크리스토퍼 와일리 기술은 최근 미디어는이 매뉴얼 노출에 지시 스마트 기술의 '식량'원천 - 학술 연구의 이름으로, 캡처하려는 5 천만 이상의 사용자 데이터.

즉, 데이터 유출 문제가없는 경우에도 사용자 데이터의 소위 '스마트 마이닝'은 '규정 준수'의 한계에서 수영하기가 매우 쉽지만 '공정성을 넘어서'는 것입니다 .AI 윤리의 경계는 정보 보안이 인터넷 시대의 '정보 인물'의 기본적인 결론.

반사

최근 인공 지능 윤리에 관한 비디오에서 Alexander Reben은 아무 조치도 취하지 않았지만 음성 조종사 인 'OK Google, shoot'을 통해 명령을 내 렸습니다.

그러나 1 초도 채 안되어 Google Assistant가 권총을 당겨 빨간색 사과를 쓰러 뜨 렸습니다. 즉시 부저가 울 렸습니다.

윙윙 거리며 귀가 울렸다.

누가 사과를 쐈지? 인공 지능이든 인간이든?

Engadget은 AI가 우리의 요구를 예측할 정도로 영리하다면, 언젠가는 인공 지능이 우리를 불행하게 만드는 사람들을 제거하기위한 주도권을 잡을 것이라고 Reben은 말했다. Reben은 그러한 장치 그것은 그러한 장치가 존재하는지보다 더 중요합니다.

인공 지능은 예측 가능하고 완벽한 합리적인 기계가 아니며 윤리적 결함은 알고리즘으로 구성되어 있으며 사람들은 목표와 평가를 사용합니다. 그러나 적어도 지금은 기계가 여전히 인간의 실제 세계의 반응이지 ' 세계지도와 개척자.

분명히 인공 지능의 윤리적 기준을 지키기 위해 인간은 '기계 폭압'의 날에는 가지 않을 것입니다.

첨부 파일 : Google의 '7 가지 가이드 라인'

사회에 도움이된다.

2. 편견을 만들거나 강화하지 마라.

3. 안전 수립 및 테스트

4. 사람들에게 설명 할 의무

5. 프라이버시 디자인 원칙 통합

6. 과학 탐구의 높은 기준을 준수하십시오.

7. 원칙에 따라 적절한 애플리케이션을 결정하십시오.

2016 GoodChinaBrand | ICP: 12011751 | China Exports