Новости

Искусственный интеллект - это долгий путь? Трудно иметь способность разрешать здравомыслие детей 10 лет.

По данным зарубежных СМИ, для людей понятие здравого смысла относительно легко идентифицировать, хотя его трудно точно определить. Например: стоять в конце толпы во время покупки билета, люди, держащие концы раскаленного металлического огнестрельного оружия, чтобы избежать Ожоги, эти общие чувства кажутся простыми, но они не просты для машин искусственного интеллекта.

Как мы учим этому расплывчатому здравому смыслу роботов искусственного интеллекта? Многие исследователи пытались это сделать, но в итоге потерпели неудачу. Но, скорее всего, это скоро изменится. В настоящее время соучредитель Microsoft Пол Аллен Участвуйте в этом проекте.

Согласно New York Times, Аллен инвестирует 125 миллионов долларов в свою некоммерческую компьютерную лабораторию, Институт искусственного интеллекта Аллена (AI2) и планирует удвоить свой инвестиционный бюджет в течение следующих трех лет. Средства будут использованы Для существующих проектов и проекта «Александр» последняя представляет собой новую инициативу, направленную на изучение концепций здравого смысла роботов ».

Аллен отметил на пресс-конференции, что, когда я создал Институт AI2, я надеюсь расширить возможности роботов искусственного интеллекта благодаря исследованиям с высоким уровнем воздействия. На ранних этапах исследований искусственного интеллекта люди уделяли много внимания концепции здравого смысла, но это Работы остаются застойными. У роботов искусственного интеллекта по-прежнему не хватает понятия здравого смысла, которое есть у большинства 10-летних. Мы надеемся начать эти исследования и добиться серьезных прорывов в этой области.

Если роботы очень продвинуты, они могут имитировать человеческие задачи, они могут находить и идентифицировать объекты, подниматься, продавать дома, оказывать помощь при бедствиях и т. Д.

Однако даже эти продвинутые роботы не могут справляться с простыми проблемами и инструкциями, как они реагируют на необычную ситуацию и как они могут использовать «здравый смысл» для исправления правильного поведения и ответов? Теперь они все еще не могут быть реализованы.

Орен Эциони, исполнительный директор Института AI2, сказал: «Несмотря на недавний успех искусственного интеллекта, искусственный интеллект по-прежнему трудно отличить между собой, но это очень просто для людей. В настоящее время нет системы искусственного интеллекта, которая бы точно отвечала на ряд простых вопросов. Например: если я положу носки в ящик, он все еще будет там завтра или как вы узнаете, заполнена ли бутылка?

Эциони подчеркнул, что, например: когда программа AlphaGo по искусственному интеллекту побеждала шахматиста мира номер один в 2016 году, AlphaGo не знала, что это игра в настольную игру.

Одна из простых причин, по которой мы не преподаем концепцию общего смысла ИИ, такова: понятие здравого смысла на самом деле очень трудно понять. Гэри Маркус, основатель Геометрического интеллекта, черпает вдохновение из здравого смысла и абстрактного мышления в развитии ребенка в Лондоне. Исследователи Имперского колледжа сосредоточились на символической технологии искусственного интеллекта. Это метод, позволяющий людям отмечать что-либо искусственным интеллектом.

До сих пор никакая исследовательская стратегия не помогла роботам идентифицировать понятия «здравого смысла». Проект Alexander будет принимать более сложный подход к решению этой проблемы. Он будет интегрировать исследования в компьютерное мышление и компьютерное зрение и найти здравый смысл измерения. Метод.

Гэри Маркус, основатель Geometry Intelligence, сказал на пресс-конференции, что меня очень интересует проект Александра, и настало время решить эту проблему по-новому. Но если искусственный интеллект развивается до следующего На сцене и в сочетании с другими аспектами человеческой жизни мы должны решать концепции здравого смысла роботов. Возможно, лучшим проектом станет проект Александра.

2016 GoodChinaBrand | ICP: 12011751 | China Exports