인민 일보는 : 지능형 시대의 도덕적 인 상호 작용을 만들

인공 지능 알고리즘 잠재적 인 보안 위험,인지 적 편견, 법적 윤리의 충돌이 종종 사회적 결함 기계 만 사람의 현실을 반영하고이 노력에 기계를 사용, 우리는 긍정적 인 상호 작용과 인공 지능 인류의 미래를 만들 수 있습니다.

음성 일품 요리, 유료 얼굴 브러시, 무인 차량은 젊은 과학자 그룹이 처음으로 인공 지능의 개념을 제안 할 때 ...... 육십년 전, 아마도 그것이 가져다 큰 변화를 기대하지 않았다 집으로 데리고, 지금과 컴퓨팅 덕분에 역량의 향상, 거대한 데이터의 원동력 및 심층 학습의 돌파구 인 인공 지능은 '진화'를 가속화하고 있으며 생산 및 생활을 점차적으로 변화시키고 있습니다.

기술은 양날의 칼이다. 그것은 동시에 인공 지능의 승리에서 볼 수 있어야, 보안, 법적 윤리뿐만 아니라 새로운 도전은. 예를 들어, 일부 전문가들은 인공 지능이 가상 세계의 경계와 물리적 세계, 심지어 리모델링을 흐리게 할 수 있다는 우려 가시 윤리적 문제의 시리즈에서 파생 된 생활 환경과인지 인간의 형태, 따라서. Huojin 쉥 전에 잘 알려진 물리학은 인공 지능의 단기 영향을 제어하는 ​​사람에 의해 결정되고, 장기적인 영향은 인공에 따라 달라집니다 믿고 지능이 사람들에 의해 완전히 통제되는지 여부.

기술 개발 과정과 논리에서, 이러한 우려가 일찍 올 수 있습니다. 다행히도, 우리가 논쟁에 머물하지 않았다, 인공 지능, 과학자와 엔지니어에 대한 잠재적 인 위험은 제품 설계 기준, 사양 및 기타 제약에서, 예방 조치를 취할 기계 편견에 의한 투명성의 부족을 이해할 수없는 지능 알고리즘의 지능형 기계 제어 시스템 타당성 얼굴의 일련을 제시하기 위해 노력하고, 사람들은 편견을 초래할 수있는 잠재적 인 요인을 제외하고, 인공 지능, 알고리즘 및 모델의 데이터 평가를 강화하는 데 사용됩니다 ; 강력한 인공 지능 환경에서 미래를 위해, 기계, 그들은 같은 연민과 인류를 가질 수 있도록 사람들의 문제를 함께 얻을 개성을 조정하는 방법을 준이, 과학자들은 인간의 가치와 규범에 내장 된 지능형 기계의 알고리즘을 통해 탐구하는 시도 책임감을 가지고, 수치와 등등. 우리는 같은 시간에 인공 지능 알고리즘은 '선행'을 따르도록, 인공 지능 프로그램을 조절하는 기계의 위험을 제어 할 수 있도록, 인간의 윤리 '좋은'측면을 그릴 수 있기를 바랍니다.

물론, 좋은 기계 법적 윤리 시스템은 쉬운 일이 아닙니다 빌드합니다. 풍부한 언어를 정량적 지표 가능한 등, 선악의 윤리적 개념에 의해 측정, 그것을 받아 들일? 현실은, 미묘한 감정의 호소는 기계가 이해할 수있는 표현? 또한, 사람 의사 결정 알고리즘, 컴퓨터 내장 윤리에이 우리가 직면하는 인공 지능의 필요성의 개발을 규제하려고하는 문제는? 표준을 설정하지만, 어려운, 우리가 할 수있는 것을 의미하지 않는다 아무것도. 판단과 기계 학습의 행동 출력, 자주에 따라 달라집니다 정보를 받았습니다. 이러한 관점에서, AI 자체가 이상적인 상태, 인공 지능 알고리즘을 기반으로 현재의 깊이 연구, 중립 객관적이고 효율적이어야한다 옳고 그름 아니라, 잠재적 인 안전 위험,인지 적 편견, 법적 윤리의 충돌이 종종 사회적 결함의 현실을 반영하지만, 비전 기술 분야에서 확대됩니다. 따라서, 지능형 기계 어쩌면 더 중요한 기술적 수단을 통해 검토 할 추가 또는지도 알고리즘, 더 완벽하게,하지만 수 있도록 정면은, 이해하고 실제 환경을 개선합니다. 단지 사람들이 기계에서 두 노력에 기계를 사용, 우리는 인공 지능을 만들 수 있습니다 미래의 인간과 긍정적 인 상호 작용.

윤리 학자는 인간 문명의 도덕적 높이를 반영, 인공 지능, 윤리적 기준이 거울이 될 것이다,라고. 인간 사회가 완벽 할 수없는, 기계 지능 시대의 미래는 다르지 않습니다. 우리는 더 나은 만들기 위해 끊임없는 노력을 계속 할 스마트 시대.

2016 GoodChinaBrand | ICP: 12011751 | China Exports