인공 지능은 우리 주변에서 더욱 영향력을 미치고 있습니다. 소셜 미디어 광고, 구직자 선별, 티켓 가격 결정, 음성 인식을 통한 중앙 난방 시스템 제어, 문화 산출물 생성 또는 교통 흐름 조절 등. 점점 더 많은 작업.
가면은 2017 년 말에 테슬라 무인 차량이 수동으로 관여 할 필요없이 미국 전역을 안전하게 여행 할 수있을 것이라고 예측했으며 사회 로봇은 인류 주변에 살았으며 10 년 내에 많은 가정 또는 간호 업무를 완료 할 수있었습니다.
일반적으로 2050 년까지 우리는이 특정 영역의 다른 영역, 즉 범용 인공 지능 (AGI)의 궁극적 인 실현에 진전을 이룰 수있을 것이라는 점에 동의합니다 .AI는 Microsoft가 새로운 개념의 운영 체제를 출시했습니다. 인간을 초월한인지 작업에 빠질 수 있으며 인간과 기계의 통합은 매우 일반적입니다. 그 후에는 아무도 말할 수 없습니다.
인공 지능 전략이 있습니까? 갖고 싶습니까?
인간의 데이터를 빠르게 만들기 위해 인체에 컴퓨터 부품을 설치하는 흥미로운 상상력이 있습니다. 인공 지능 분야의 사람들 중 일부는 뇌 외부의 외피 (extra cortices)로 작용하여 전자 장치와 연결합니다. 미래의 속도와 효율성은 높으며, 이것은 기계 부품, 즉 전자 심장 박동 조절 장치와 티타늄 합금 접합부의 '반 로봇'몸체의 주요 혁신이 될 것입니다. 인공 지능의 미래는 군대 국방 응용 프로그램에서 완전히 자율 무기의 개념은 매우 논쟁의 여지가 있습니다.이 무기 시스템은 알고리즘 기반 목표를 검색, 식별, 선택 및 파괴하고 과거의 보안 위협으로부터 배울 수 있지만 사람의 참여는 없습니다. 이것은 다소 끔찍한 개념입니다.
인공 지능에 관한 이러한 생각은 "터미네이터"장면을 연상시키는 공상 과학적 반대 유토피아 근처의 인류의 미래를 지배합니다.
구별 할 기회
인류 파괴로부터 벗어날 수있는 방법이 있을지 모르지만 인공 지능 윤리에 대한 경고는 이제 막 놀라움을 나타 냈습니다. 지난 달 기계 학습 알고리즘은 아마존 사용자가 폭탄 구성 요소를 만드는 것이 적극적으로 권장되기 때문에 비판을 받아 왔습니다. , 광고 모집의 성 불평등, 소셜 미디어를 통한 증오 메시지의 보급 등이 그 이유입니다. 그 이유는 크게 기기의 품질과 특성에 기인합니다. 기기는 인간의 데이터로부터 덜 완벽한 결론을 이끌어 낼 것이며, 이 결과는 일상 생활에서 알고리즘 및 인공 지능 메커니즘의 관리에 관한 심각한 질문을 제기합니다.
최근에, 정신력이있는 젊은 미국인은 불공정하고 불법적이라고 생각하는 알고리즘 성격 테스트의 태도와 의견이 달리하기 때문에 일자리로 거절되었지만 회사는 이해하지 못했기 때문에 알고리즘이 작동하는 방식과 노동법은 현재 기계 의사 결정 클래스의 내용을 다루지 않으므로 법에 의지하지 않는다. 중국의 '사회적 신용'프로그램은 작년에도 비슷한 우려를 제기했다. 미디어 (친구의 게시물 포함)는 개인의 '시민권'의 질을 평가하고 개인에게 대출을 제공할지 여부와 같은 의사 결정에 사용하는 데이터를 수집합니다.
인공 지능 윤리 및 법률의 필요성
인공 지능 운영 및 규제, 특히 정부 및 기업이 전기 사용 및 유지 보수와 같은 특정 영역에서 우선 순위를 가질 때 명확한 윤리적 시스템을 수립하는 것이 필요합니다. 이스라엘 역사가 Yauvall Halei 운전하는 자동차와 전차의 역설이 논의되었습니다 .MIT의 윤리적 기계와 같은 혁신은 기계에 대한 인간 윤리에 대한 데이터를 수집하려고합니다.
그러나 윤리 만이 인공 지능과 인간 건강 문제를 포함하는 유일한 영역이 아니며 인공 지능은 인간에게 상당한 정서적 영향을 미쳤으며 따라서 인공 지능 연구의 주제로서 감정은 여전히 간과되고 있습니다.
지난 2 년간 인공 지능 피어 리뷰 기사 3542 개에 실린 과학 학술 데이터베이스에서 다음 2 년 동안 검색 할 수 있으며 그 중 43 개 (1.2 %)는 '정서적 인 단어'를 포함합니다. 인공 지능 감정 기사의 연구는 훨씬 적습니다. Singularity 시스템을 고려할 때 고려해야 할 인공 기계인지 구조의 범위에 감성을 포함시켜야합니다. 그러나 인공 지능 연구의 99 %는이 점을 인식하지 못하는 것 같습니다.
인간의 감정을 이해하는 인공 지능
우리가 인공 지능의 감정에 대해 말할 때, 우리는 여러 가지 다른 것들을 언급합니다 : 기계는 우리의 감정 상태를 인식하고 적절한 조치를 취할 수 있습니다. 생체 측정 센서를 통해 피부 반응을 테스트하기위한 통합 컴퓨팅 분야가 빠르게 발전하고 있습니다 , 두뇌 파동, 얼굴 표정 및 다른 감정적 인 자료. 대부분의 시간, 계산은 정확하다.
이 기술의 적용은 좋거나 나쁠 수 있으며 회사는 영화에 대한 감정적 반응을 기반으로 피드백을 받고 스마트 폰을 통해 실시간으로 판매 할 수 있으며 정치인은 관객 및 소셜 로봇은 의료 또는 간호 환경의 환자를 돕기 위해 반응을 조정할 수 있으며 디지털 보조원은 감정을 향상시키는 데 도움이되는 노래를 사용할 수 있습니다. 그것의 범위를 확장하고 그것의 기능을 개량하십시오.
인공 지능은 어떻게 볼 수 있습니까?
이것은 인공 지능의 두 번째 정서적 인 분야입니다. 인간은 인공 지능에 대한 감정적 인 반응에 진전이 없습니다. 인간은 인공 지능과 접촉하기를 원합니다. 우리는 대부분 동일한 기술, 인간 성격 및 무생물 개체, 그래서 전기 개체가 목적을 가지고, 우리가 사용하는 기술에 감정적 인 투영, '그것은 나에게 매우 화났다, 그것이 작동하지 않는 이유입니다.'등등.
이것은 소위 말하는 매체 방정식 (Media Equation)입니다. 이중의 마음이 있습니다. 우리는 기계가 의식적인 의미에서 의식있는 창조물이 아니라는 것을 이해하지만, 마치 마치 마치 우리처럼 정서적으로 반응합니다. 이것은 인간의 가장 기본적인 욕구 즉, 대인 관계와 정서적 인 접촉에서 유래 할 가능성이 있으며, 그러한 존재가 없다면 인간은 우울해질 것입니다.이 요구는 인류로 하여금 다른 사람들과 동물, 감각 경험은 운전과 보람을주는 메커니즘의 조합과 행복의 원천에서 중요한 부분입니다.
거짓 사회
우리의 환경에서 접촉이없고 소속감이 없을 때 우리는 텔레비전, 영화, 음악, 책, 비디오 게임 및 몰입 형 사회 세계를 제공 할 수있는 모든 것을 통해이 경험을 복사 할 것입니다. Social Surrogacy Hypothesis는 사회 심리학이 뒷받침하는 이론으로 인공 지능에 적용되기 시작했다.
기본적인 인간의 감정에도 가상 AI의 얼굴에, 증거를 기반으로합니다. 예를 들어 칭찬 디지털 보조의 얼굴은 행복한 얼굴을 보여 모기지 응용 프로그램의 분노를 보여 주었다 거부 할 때 알고리즘, 무인의 얼굴 차는 트위터 인공 지능이 슬픈 때 (나는 아직도이 문제에 대해 슬프다) 자신의 계정을 확인하는 것을 거부하면서도 두려움을 나타냈다.
로봇
인공 지능 감정적 반응의 인간의 얼굴은 강한 기업, 즉 로봇이. 더 많은 인간과 같은 로봇의 창족는 우리의 감정적 반응을 거짓말 말을하는 것입니다. 우리는 의인화 된 로봇들이 표현하는 긍정적 인 감정에 매료되었다 그들이 상처를 받으면 동정심과 불쾌감을 느끼게되고, 우리를 거부하면 슬프다.
그러나 로봇이 거의 인간처럼 보이지만 인간에게 완벽하지는 않다면 우리의 평가는 갑자기 떨어지고 거부 될 것입니다. 이것은 소위 말하는 '호러 밸리 (horror valley)'이론이며 결과 디자인 로봇과 인간을 똑같이 만들 수 없다면이 단계에서 로봇은 인간으로 보이지 않는다는 아이디어입니다.
부드러운 터치
인공 지능은 이제 촉각 기술을 사용하여 인간과 로봇 사이의 감정적 유대 관계를 더욱 깊게합니다. 아마도이 예는 가장 잘 알려져 있습니다 : 다른 나라의 간호에 유용한 모피 인감 Paro가 있습니다.
사회 및 감정적 인 로봇에는 잠재적 인 사용법이 많이 있습니다. 그 중 일부는 노인 돌보기, 독립적으로 살기, 고립 된 사람 돕기, 치매, 자폐증 또는 장애로 고통받는 사람들을 돕는 것을 포함합니다. 가상 현실에 기술의 일부로 통합됩니다.
다른 분야에서는 인공 지능이 일상적인 집안일이나 가르치는 일 등을 담당 할 수 있습니다. 5 세에서 18 세 사이의 750 명의 어린이를 대상으로 설문 조사를 실시한 결과 대부분이 인공 지능 로봇은 아무런 문제도 가르치지 않지만 많은 사람들이 인공 지능 교사의 감정적 인 효과에 대해 걱정하고 있습니다. 그러나 로봇은 학생들에게 조언이나 감정을 줄 수 있습니까? 그러나 40 % 이상이 교사 대신 인공 지능 로봇에 동의합니다. 그
하버드 대학교의 심리학자 인 스티븐 핑커 (Steven Pinker)는 위에서 언급 한 사회적 대체 경험을 통해 우리는 자신을 속일 수 있으며 사회성을 실제로 경험하지는 않지만 우리의 두뇌를 속여서 우리가 그렇게 느끼고 있다고 믿는다 고 말합니다 그러나 복사 효과는 실제만큼 좋지 않습니다.
결론
분명히 사람들은 인공 지능과의 상호 작용에서 진정한 감정을 경험할 수 있지만 무인 차량, 가상 비서, 로봇, 청소부 및 플레이 메이커를 놓칠 지 여부는 분명하지만, 뭔가?
이 장면은 격리 된 원숭이가 차가운 가시 철조망을 통해 우유를받을 필요없이 부드러운 모발로 '어머니'를 선택할 수있는 Harry Harlow의 유명한 실험을 연상시킵니다. 우리는 기술적으로 달성 할 수 있습니다 우리는 모든 것을 원하고 인류의 기본적인 정서적 욕구와 실제 감각적 인 경험의 경험이 존재하지 않는다는 것을 깨닫습니다. 미래는 더 사치스러운 것, 즉 정반대의 음식을 추구하고 양산합니다. 진정한 감각적 경험은 무엇이며 로봇이 아닌 실제 사람과 접촉합니까?
대답은 당신이 지금 모르는 것이지만, 인공 지능 연구의 99 %는 정서에 초점을 두지 않습니다. 사실 감정이 인공 지능에서 더 큰 역할을한다면, 이것은 사후 지식이거나 감정 때문입니다. 데이터는 인공 지능 장비와 고용주가 더 많은 힘과 돈을 가질 수있게합니다. 디지털 휴머니즘 프로그램은 Singularity 시스템과 인간 - 기계 통합에 들어갈 때 우리 자신의 오래된 모유 수유를 무시하면 안된다는 것을 기억할 수 있습니다 동물의 두뇌와 감정적 유대감에 대한 필요성 .AutaAI 프로젝트는이 목표를 향한 단계이며 모든 사람이 인공 지능의 이점을 누릴 수 있도록하는 것이 목표입니다. 인공 지능 감정적 인 건강, 그것이 우리에게 무엇을 가져올 지 누가 압니까?