Домой / Материалы / Почему искусственный интеллект не решит всех проблем. Зачем нам нужен искусственный интеллект? Почему ИИ - это так важно

Почему искусственный интеллект не решит всех проблем. Зачем нам нужен искусственный интеллект? Почему ИИ - это так важно

Искусственный интеллек (ИИ) пытается ворваться во все сферы жизни человека. Но прежде чем допускать искусственную нейросеть к новой проблеме стоит хорошо подумать.

Истерия вокруг будущего искусственного интеллекта (ИИ) захватила мир. Нет недостатка в сенсационных новостях о том, как ИИ сможет лечить болезни, ускорять инновации и улучшать творческий потенциал человека. Если читать заголовки СМИ, вы можете решить, что уже живёте в будущем, в котором ИИ проник во все аспекты общества.

И хотя нельзя отрицать, что ИИ открыл нам богатый набор многообещающих возможностей, он также привёл к появлению мышления, которое можно охарактеризовать, как веру во всемогущество ИИ. По этой философии, при наличии достаточного количества данных, алгоритмы машинного обучения смогут решить все проблемы человечества.

Но у этой идеи есть большая проблема. Она не поддерживает прогресс ИИ, а наоборот, ставит под удар ценность машинного интеллекта, пренебрегая важными принципами безопасности и настраивая людей на нереалистичные ожидания по поводу возможностей ИИ.

Вера во всемогущество ИИ

Всего за несколько лет вера во всемогущество ИИ пробралась из разговоров технологических евангелистов Кремниевой долины в умы представителей правительств и законодателей всего мира. Маятник качнулся от антиутопического представления об уничтожающем человечество ИИ к утопической вере в пришествие нашего алгоритмического спасителя.

Мы уже видим, как правительства обеспечивают поддержку национальным программам развития ИИ и соревнуются в технологической и риторической гонке вооружений, чтобы получить преимущество в бурно растущем секторе машинного обучения (МО). К примеру, британское правительство пообещало вложить £300 млн в исследования ИИ, чтобы стать лидером этой области.

Очарованный преобразовательным потенциалом ИИ, французский президент Эмманюэль Макрон решил превратить Францию в международный центр ИИ. Китайское правительство увеличивает свои возможности в области ИИ с помощью государственного плана по созданию китайской ИИ-индустрии объёмом в $150 млрд к 2030 году. Вера во всемогущество ИИ набирает обороты и не собирается сдаваться.


Нейросети – легче сказать, чем сделать

В то время как многие политические заявления расхваливают преобразующие эффекты надвигающейся "революции ИИ", они обычно недооценивают сложности внедрения передовых систем МО в реальном мире.

Одна из наиболее многообещающих разновидностей технологии ИИ – нейросети. Эта форма машинного обучения основывается на примерном подражании нейронной структуры человеческого мозга, но в гораздо меньшем масштабе. Многие продукты на основе ИИ используют нейросети, чтобы извлекать закономерности и правила из больших объёмов данных.

Но многие политики не понимают, что просто добавив к проблеме нейросеть, мы не обязательно тут же получим её решение. Так, добавив нейросеть к демократии, мы не сделаем её мгновенно менее дискриминированной, более честной или персонализованной.

Бросая вызов бюрократии данных

Системам ИИ для работы нужно огромное количество данных, но в госсекторе обычно не бывает подходящей инфраструктуры данных для поддержки передовых систем МО. Большая часть данных хранится в офлайн-архивах. Небольшое количество существующих оцифрованных источников данных тонут в бюрократии.

Данные чаще всего размазаны по различным правительственным департаментам, каждому из которых для доступа требуется особое разрешение. Кроме всего прочего, госсектору обычно не хватает талантов, оснащённых нужными техническими способностями, чтобы в полной мере пожать плоды преимуществ ИИ.

По этим причинам связанный с ИИ сенсационализм получает множество критики. Стюарт Рассел, профессор информатики в Беркли, давно уже проповедует более реалистичный подход, концентрирующийся на простейших, повседневных применениях ИИ, вместо гипотетического захвата мира сверхразумными роботами.

Сходным образом профессор робототехники из MIT, Родни Брукс, пишет, что «почти всем инновациям в робототехнике и ИИ требуется гораздо, гораздо больше времени для реального внедрения, чем это представляют себе как специалисты в этой области, так и все остальные».

Одна из множества проблем внедрения систем МО состоит в том, что ИИ чрезвычайно подвержен атакам. Это значит, что злонамеренный ИИ может атаковать другой ИИ, чтобы заставить его выдавать неправильные предсказания или действовать определённым образом.

Многие исследователи предупреждали о том, что нельзя так сразу выкатывать ИИ, не подготовив соответствующих стандартов по безопасности и защитных механизмов. Но до сих пор тема безопасности ИИ не получает должного внимания.

Машинное обучение – это не волшебство

Если мы хотим пожать плоды ИИ и минимизировать потенциальные риски, мы должны начать размышлять о том, как мы можем осмысленно применить МО к определённым областям правительства, бизнеса и общества. А это значит, что нам необходимо начать обсуждения этики ИИ и недоверия многих людей к МО.

Самое важное, нам нужно понимать ограничения ИИ и те моменты, в которые люди всё ещё должны брать управление в свои руки. Вместо того, чтобы рисовать нереалистичную картину возможностей ИИ, необходимо сделать шаг назад и отделить реальные технологические возможности ИИ от волшебства.

Долгое время Facebook считала, что проблемы типа распространения дезинформации и разжигание ненависти можно алгоритмически распознать и остановить. Но под давлением законодателей компания быстро пообещала заменить свои алгоритмы на армию из 10 000 рецензентов-людей.


В медицине тоже признают, что ИИ нельзя считать решением всех проблем. Программа "IBM Watson for Oncology" была ИИ, который должен был помочь докторам бороться с раком. И хотя она была разработана так, чтобы выдавать наилучшие рекомендации, экспертам оказывается сложно доверять машине. В результате программу закрыли в большинстве госпиталей, где проходили её пробные запуски.

Схожие проблемы возникают в законодательной области, когда алгоритмы использовались в судах США для вынесения приговоров. Алгоритмы подсчитывали значения рисков и давали судьям рекомендации по приговорам. Но обнаружилось, что система усиливает структурную расовую дискриминацию, после чего от неё отказались.

Эти примеры показывают, что решений на основе ИИ для всего не существует. Использование ИИ ради самого ИИ не всегда оказывается продуктивным или полезным. Не каждую проблему лучше всего решать с применением к ней машинного интеллекта.

Это важнейший урок для всех, кто намеревается увеличить вложения в государственные программы по развитию ИИ: у всех решений есть своя цена, и не всё, что можно автоматизировать, нужно автоматизировать. опубликовано

Если у вас возникли вопросы по этой теме, задайте их специалистам и читателям нашего проекта .

Пока менеджер Илон Маск паникует и пытается создать комитеты слежения за искусственным интеллектом во имя спасения человечества, профессиональные инженеры из IEEE заставили всех соблюдать законы робототехники. Хочешь проектировать ИИ? Только если обеспечишь безопасность.

Причем тут Илон Маск и Марк Цукерберг?


Еще 15 июля Илон Маск призвал американских губернаторов создать организацию для слежки за системами искусственного интеллекта. Мотив простой - по мнению Маска , рано или поздно они уничтожат человечество. Но мы еще этого не замечаем:

Илон Маск:

Пока люди не видят роботов, убивающих людей на улицах, они не знают, как реагировать, потому что такой сценарий кажется им нереалистичным.


Парадоксальное выступление от человека на острии науки, правда? Его высмеял даже Цукерберг. Невольно задумываешься - он вообще понимает, о чем говорит? Действительно ли он в состоянии проектировать будущее? Или, может быть, за этим предложением прячется желание законодательно одобренного шпионажа для получения новейших разработок?

Спи сладко, Илон. Спи сладко, читатель. За тебя уже все сделали в IEEE. ИИ больше не навредит.

Кто такие IEEE?


IEEE - , международная некоммерческая организация-разработчик стандартов по радиоэлектронике, электротехнике и аппаратному обеспечению вычислительных систем и сетей.

Фактически, организация обобщает и приводит к общему знаменателю разрозненные разработки, превращая их в единую систему: как для справки, так и для развития. С помощью этих стандартов разные разработчики получают возможность проектирования совместимых с чужими систем. Среди самых известных стандартов IEEE:

  • IEEE 1294 - USB,
  • IEEE 1394 - FireWire (i-Link),
  • IEEE 802 - семейство сетевых протоколов.

Последний знаком даже простым пользователям - вспомните, как называется версия Wi-Fi?

Как IEEE планирует регулировать ИИ


IEEE выпустила три новых стандарта, регулирующие этические вопросы работы систем искусственного интеллекта при обработке данных и взаимодействии с окружающим.

Документы относятся к разряду обязательных стандартов сообщества и были разработаны в рамках стандартизации работ по изучению этических аспектов ИИ и самоуправляемых автомобилей .

Содержимое стандартов объемно и содержит преимущественно информацию для разработчиков. В основе текстов - постановка этических проблем при обработке данных искусственным интеллектом и способы их решения.

В результате IEEE предложила готовую матрицу для программирования систем с учетом интересов и моральных норм человечества.

Что описывают стандарты IEEE о искусственном интеллекте?


Один из стандартов, IEEE P7004 , описывает правила сертификации и контроля тех организаций и систем, которые обрабатывают данные о детях и студентах. IEEE P7005 регулирует работу с данными о наемных работниках.

При его соблюдении ИИ и организации, работающие с данными, обязаны действовать, основываясь на безопасности и благополучии - даже с теми, что находятся в свободном доступе. Так же IEEE описала обязательные нормы, которым должны соответствовать доступ, сбор, хранение, использование, совместное использование и уничтожение данных о детях и учащихся.


Третий стандарт IEEE P7006 описывает для создание и контроль работы персонализированных ИИ-агентов - посредников в принятиях решений между несколькими компьютерами или системами. Методология разработки и технические элементы, заложенные в стандарте, должны исключить любые проблемы в работе интеллектуального аппарата.

Роботы не убьют человеков. IEEE всех спасли


Самое интересное кроется в стандарте IEEE P7006 . Он не просто описывает способы сертификации и задает законы робототехники - он процедуру, принцип работы искусственного интеллекта, связывающего человека и машину:

  • как должен работать ИИ-агент;
  • как должен предоставляться доступ к нему;
  • как должна вводиться информация;
  • как должно проходить обучение ИИ;
  • какие нормы этические нормы, правила и ценности должен заложить разработчик.

Первая версия стандарта если не введет 3 закона робототехники в обязательные для исполнения правила, то хотя бы минимизирует возможный вред. По мере развития технологий P70006 станет единым правилом, которое обеспечит защиту личности и безопасность всего человечества.

А если я не хочу соблюдать стандарт?

Стандарты IEEE как правило принимаются всем сообществом, и через некоторое время либо становятся универсальным документом для всех использующих технологию, либо превращаются в документ другой организации - при сохранении функций.


Соблюдение стандартов IEEE необходимо не только для получения бумаг от официальных структур. Многие принципы, заложенные в них, обеспечивают совместимость систем различных разработчиков. Кроме того, они работают в качестве сертификата соответствия, говоря о надежности продукта.

Когда люди сталкиваются с машинами, умеющими реагировать так же как, люди, компьютерами, легко решающими логические и стратегические задачи, имитируя человеческую логику, большинству представителей человеческого рода становится неуютно. Все чаще закрадывается мысль, что в совсем недалеком будущем человечество потеряет свое главенство, подпав под иго роботов.

Фантазии кинематографа

В каждой шутке, как известно, есть только доля шутки, а остальное - горькая правда и повод для беспокойства. Масса научно-фантастических фильмов долгое время спекулировали на теме искусственного интеллекта, сумевшего перешагнуть в своем развитии своих создателей, и в конечном итоге поработив человечество или создав условия для вымирания людей.

Конфликты между человеком и машиной в фильмах развиваются по всем направлениям - образуется фронт боевых действий или идет подспудное уничтожение всего живого, причин которому в человеческих понятиях не существует.

Яркий образ агрессивного ИИ был впервые показан в фильме «Терминатор» в образе проекта "Скайнет". На протяжении пяти фильмов авторы саги пытаются понять, что представляет большую опасность для человечества - машина, обретшая самосознание, или люди, использующие мощь машины в собственных целях.

Предупреждения Маска

Картины такого рода становятся страшилками для любого обывателя, особенно если ведущие представители мира науки это поддерживают и усугубляют. За последние годы ученые раздвинули границы понимания того, что может искусственный интеллект. Многие специалисты, обладающие высоким уровнем доверия общественности, сделали громкие заявления о том, какие опасности подстерегают Homo Sapiens, о тех потенциальных угрозах, которые может принести дальнейшее развитие интеллекта машин.

Более того, многие ученые считают, что угроза не просто нависла над людьми, а уже стала реальностью и остановить процесс практически невозможно. Илон Маск уверен, что это уже происходит.

В июле 2017 года на заседании Национальной ассоциации губернаторов он заявил, что наблюдал за несколькими очень развитыми искусственными интеллектами, и, по его мнению, людям есть чего бояться. Он уточнил, что легкомысленность в этом вопросе может привести к пагубным последствиям. Также Маск считает, что люди опомнятся только в тот момент, когда ИИ станет "новым бессмертным Гитлером".

Опасения Хокинга

Физик Стивен Хокинг, уже покинувший мир, также выражал озабоченность по поводу активного внедрения в обиход искусственного интеллекта, предполагая, что он принесет уничтожение человеческой расе.

Свои опасения он связывал с тем, что развитые технологии приведут к деградации человека. Активное внедрение ИИ может сделать человека беспомощным перед силами природы, что в условиях эволюции и видовой борьбы приведет к гибели Homo Sapiens.

Люди могут научить ИИ быть злобным

Группа сотрудников MIT Media Lab Кембриджского университета Массачусетса создала нейронную сеть, названную «Машиной кошмаров». Запущенная в 2016 году, она трансформировала обычные цифровые фотоснимки в ужасающие картины возможного будущего человечества.

Еще один искусственный интеллект носит название «Шелли», создатели заложили в программу способность к самообучению на литературном поприще в жанре ужасов. Машина проанализировала 140 тысяч страшных рассказов, сказок и теперь ежедневно выдает по новому произведению. Эксперимент продолжается и сегодня, рассказы «Шелли» выкладываются на одну из интернет-площадок.

Более того, пользователи могут поучаствовать в развитии искусственного интеллекта, написав начало истории, к следующему дню «автор» выложит свою версию развития сюжета. Все написанные террабайты хранятся в памяти «Шелли» и анализируются, что повышает разнообразие «литературных» опытов, таким образом, машина самообучается.

Развитие, контроль и рамки

Не все ученые разделяют опасения и видят мир в апокалиптических тонах из-за развития искусственного интеллекта. Доцент кафедры компьютерных наук Корнельского университета Килиан Вайнбергер считает, что проблема надумана. Ученый называет причины, по которым происходит противостояние. Существует два вида человеческого страха перед неизвестным. Первое опасение состоит в том, что ИИ станет сознательным и уничтожит своего создателя и главного конкурента. Второй страх более реален и основывается на понимании природы человека - аморальные люди будут использовать умные машины в личных целях.

Ученый считает: страх, что ИИ разовьет сознание и будет занят свержением человечества, возникает от непонимания того, что представляет собой искусственный интеллект. Любая машина программируется и работает с огромным количеством ограничений, согласно четкому алгоритму, определяющему ее поведение. То есть любой ИИ совершает манипуляции, интеллектуальные игры только в очерченных границах.

Если машина пишет литературные рассказы, то без соответствующей программы, заложенной в нее человеком, она не сможет рассчитать километраж машины, двигающейся из пункта «А» в пункт «В». Также техника без соответствующего обеспечения не может «понять», создать алгоритм уничтожения или создания чего-либо, будь то посев пшеницы или устранение паука. Вайнсберг считает, что в обозримом будущем не существует предпосылок для появления у машин сознания, равного человеческому.

Человеческий фактор

Более реальной угрозой является возможность того, что ИИ окажется в руках людей с отсутствием морали и нравственности, но целиком поглощенных идеей достижения собственных целей. Если погрузиться в изучение этой проблемы, то она действительно оказывается устрашающей в масштабах всего человечества. Причем, чтобы это понять, не нужно рассматривать философскую проблематику. Достаточно вспомнить о Министерстве вооруженных сил любой державы, стремящейся к мировому господству.

Любой инструмент может быть использован во благо и во вред в зависимости от намерений людей, решивших его применить. Нож создавался для охоты и использования в мирных целях, но его совершенствование и разнообразие форм - во много заслуга людей, склонных к насилию.

Люди все еще пугаются искусственного интеллекта, не совсем понимая, что сами являются его создателями и главными регуляторами. От того, какая программа будет заложена в бездушную машину, напрямую зависит результат ее деятельности.

Увидеть благо

Вайнсберг считает, что если отбросить надуманные страхи, то ИИ может существенно облегчить жизнь человека, сделав ее более безопасной и комфортной. Преимущества машин можно использовать в медицине, например компьютер, обследовав родинку, моментально оценит злокачественности образования. Самоуправляемые автомобили способны полностью устранить проблему аварий на дорогах, уносящих миллионы жизней по всей планете.

Сейчас большинство людей не может понять природу искусственного интеллекта, а все неизвестное пугает человека с огромной силой, заставляя делать неверные выводы и поступки. Начавшееся противостояние будет продолжаться достаточно долго, но при этом ученые будут продолжать совершенствовать ИИ. Возможно, в какой-то момент в споре будет поставлена точка, но сделано это будет в тот момент, когда люди откажутся от спекуляций на волнующей теме и найдут в себе силы дать исчерпывающие ответы на простые вопросы.

Искусственный интеллект - причина, по которой нам конец?

Что такое искусственный интеллект и чего на самом деле боятся люди?

Вконтакте

Одноклассники

Искусственный интеллект - тема, о которой каждый сформировал своё мнение.

Эксперты в этом вопросе разбились на два лагеря.
В первом считают, что искусственного интеллекта не существует, во втором - что он есть.

Кто из них прав - разбирался Rusbase.

Искусственный интеллект и негативные последствия имитации

Основная причина споров об искусственном интеллекте - понимание термина. Камнем преткновения стали само понятие интеллекта и... муравьи. Отрицающие существование ИИ люди опираются на то, что нельзя создать искусственный интеллект, потому что не изучен интеллект человеческий, а следовательно - воссоздать его подобие невозможно.

Второй аргумент, которым оперируют «неверующие», заключается в кейсе с муравьями. Основной тезис кейса - муравьи долгое время считались существами, у которых есть интеллект, но после исследований стало ясно, что они его имитировали. А имитация интеллекта не означает его наличие. Поэтому всё, что имитирует разумное поведение - интеллектом назвать нельзя.

Другая половина лагеря (утверждающая, что ИИ есть) на муравьях и природе человеческого разума не зацикливается. Вместо этого они оперируют более практическими понятиями, смысл которых заключается в том, что искусственный интеллект - свойство машин выполнять интеллектуальные функции человека. Но что считать интеллектуальными функциями?

История искусственного интеллекта и кому это пришло в голову

Джон Маккарти, автор термина «искусственный интеллект», определил интеллектуальную функцию как вычислительную составляющую способности достигать целей. Само определение искусственного интеллекта Маккарти объяснил как науку и технологию создания интеллектуальных компьютерных программ.

Определение Маккарти появилось позже, чем само научное направление. Ещё в середине прошлого века учёные пытались понять, как работает человеческий мозг. Потом появились теории вычислений, теории алгоритмов и первые в мире компьютеры, вычислительные возможности которых натолкнули светил науки на мысли о том, сможет ли машина сравниться с разумом человека.

Вишенкой на торте стало решение Алана Тьюринга, который нашёл способ проверить разумность компьютера - и создал тест Тьюринга, определяющий, может ли мыслить машина.

Так что такое искусственный интеллект и для чего он создан?

Если не брать в расчёт муравьёв и природу человеческого интеллекта, ИИ в современном контексте - свойство машин, компьютерных программ и систем выполнять интеллектуальные и творческие функции человека, самостоятельно находить способы решения задач, уметь делать выводы и принимать решения.

Рационально не воспринимать искусственный интеллект как подобие человеческого разума и разделять футурологию и науку, так как ИИ и «Скайнет».

Тем более большинство современных продуктов, созданных с помощью ИИ-технологий - не новый виток развития искусственного интеллекта, а лишь использование старых инструментов для создания новых и нужных решений.

Почему апгрейд не считается за развитие искусственного интеллекта

Но такие ли новые это идеи? Взять, к примеру, Siri, облачного помощника, оснащённого вопросно-ответной системой. Подобный проект был создан ещё в 1966 году и тоже носил женское имя - Элиза. Интерактивная программа поддерживала диалог с собеседником настолько реалистично, что люди в ней признавали живого человека.

Или промышленные роботы, которые использует Amazon на складе. Задолго до этого в 1956 году роботы Unimation работали в General Motors, перемещая тяжёлые детали и помогая в сборке автомобилей. А интегральный робот Шейки, разработанный в 1966 году и ставший первым мобильным роботом, который управлялся искусственным интеллектом? Не напоминает современную и усовершенствованную Надин?

Проблемы неестественных интеллектов. Интеллекция Григория Бакунова

И куда без последнего тренда - нейросетей? Современные стартапы на нейросетях мы знаем - вспомнить хотя бы Prisma. А искусственную нейронную сеть на основе принципа самоорганизации для распознавания образов под названием «Когнитрон», созданную в далёком в 1975 году - нет.

Интеллектуальные чат-боты тоже не стали исключением. Далёкий праотец чат-ботов - CleverBot, работающий на алгоритме искусственного интеллекта, разработанном еще в 1998 году.

Поэтому искусственный интеллект не является чем-то новым и уникальным. Пугающим перспективой порабощения человечества феноменом - тем более. Сегодня ИИ - это использование старых инструментов и идей в новых продуктах, отвечающих требованиям современного мира.

Возможности искусственного интеллекта и неоправданные ожидания

Если сравнивать искусственный интеллект с человеком, то сегодня его развитие находится на уровне ребёнка, который учится держать ложку, старается встать с четверенек на две ноги и никак не может отвыкнуть от памперсов.

Мы привыкли видеть ИИ всемогущей технологией. Даже Господа Бога в фильмах не показывают столь всесильным, как вышедшую из под контроля корпорации табличку эксель. Может ли бог отключить всё электричество в городе, парализовать работу аэропорта, слить в интернет секретные переписки глав государств и спровоцировать экономический кризис? Нет, а искусственный интеллект может, но только в кино.

Завышенные ожидания - это причина, по которой мы в жизни, ведь автоматический робот-пылесос не сравнится с роботом-дворецким Тони Старка, а домашний и милый Zenbo не устроит вам «Мир Дикого Запада».

Россия и применение искусственного интеллекта - есть кто живой?

И хотя искусственный интеллект не оправдывает ожидания большинства, в России он используется в различных сферах, начиная от государственного управления и заканчивая дейтингом.

Сегодня найти и идентифицировать объекты, проанализировав данные изображений, можно с помощью и ИИ. Выявить агрессивное поведение человека, обнаружить попытку взлома банкомата и распознать по видео личность того, кто это пытался сделать - уже можно.

Биометрические технологии тоже ушли вперёд и позволяют не только по отпечаткам пальцев, но и по голосу, ДНК или сетчатке глаза. Да, прямо как в фильмах про спецагентов, которые могли попасть в секретное место лишь после сканирования глазного яблока. Но биометрические технологии применяются не только для верификации тайных агентов. В реальном мире биометрия используется для аутентификации, проверок заявок на кредит и контроля за работой персонала.

Биометрия - не единственный пример применения. Искусственный интеллект тесно связан с другими технологиями и решает задачи ритейла, финтеха, образования, промышленности, логистики, туризма, маркетинга, медицины, строительства, спорта и экологии. Наиболее успешно в России ИИ используется для решения задач предиктивной аналитики, интеллектуального анализа данных, обработки естественного языка, речевых технологий, биометрии и компьютерного зрения.

Задачи искусственного интеллекта и почему он ничего вам не должен

Никакой миссии у искусственного интеллекта нет, а задачи перед ним ставятся с целью и сокращения ресурсов, будь это время, деньги или люди.

Как пример - интеллектуальный анализ данных, где ИИ оптимизирует закупки, логистические цепочки и другие бизнес-процессы. Или компьютерное зрение, где с помощью технологий искусственного интеллекта проводится видеоаналитика и создаётся описание содержания видео. Для решения задач речевых технологий ИИ распознаёт, анализирует и синтезирует устную речь, делая ещё один маленький шаг на пути к тому, чтобы научить компьютер понимать человека.

Понимание человека компьютером считают той самой миссией, выполнение которой приблизит нас к созданию сильного интеллекта, так как для распознавания естественного языка машине потребуются не только огромные знания о мире, но и постоянное взаимодействие с ним. Поэтому «верующие» в сильный искусственный интеллект относят понимание машиной человека к самой важной задаче ИИ.

Гуманоид Надин имеет индивидуальность и предназначен на роль социального компаньона.

В философии искусственного интеллекта даже существует гипотеза, согласно которой есть слабый и сильный искусственные интеллекты. В ней сильным интеллектом будет считаться компьютер, способный мыслить и осознавать себя. Теория слабого интеллекта такую возможность отвергает.

К сильному интеллекту и правда много требований, некоторые из которых уже выполнены. Например, обучение и принятие решений. Но сможет ли когда-нибудь макбук соответствовать таким требованиям, как сопереживание и мудрость - большой вопрос.

Возможно ли, что в будущем появятся роботы, которые смогут не только имитировать человеческое поведение, но и сочувственно кивать, слушая очередное недовольство несправедливостью человеческого бытия?

Для чего ещё нужен робот с искусственным интеллектом?

В России робототехнике с использованием искусственного интеллекта уделяется мало внимания, но надежда на то, что это временное явление есть. CEO Mail Group Дмитрий Гришин даже фонд Grishin Robotics, правда, о громких находках фонда пока не было слышно.

Из последних хороших российских примеров - робот «Емеля» от i-Free, способный понимать естественный язык и общаться с детьми. На первом этапе робот запоминает имя и возраст ребенка, подстраиваясь под его возрастную группу. Также он может понимать вопросы и отвечать на них – например, говорить о прогнозе погоды или рассказать факты из «Википедии».

В других странах роботы пользуются большей популярностью. Например, в китайской провинции Хэнань на вокзале для скоростных поездов служит настоящий , который может сканировать и распознавать лица пассажиров.

Сражаясь с компьютерным противником, часто воображаешь его гораздо умнее, чем он есть на самом деле. Однако стоит приметить оплошность, и иллюзия рассеивается.

Игромания https://www.сайт/ https://www.сайт/

Мы поговорим о лучших ИИ, встречавшихся в компьютерных играх.

Ложные ИИдолы

Словосочетание «искусственный интеллект» звучит весомо и даже возвышенно. Представляется нечто загадочное и непостижимое, над чем работают настоящие гуру программирования, владеющие тайными, почти мистическими знаниями. Они наделяют машину способностью думать подобно человеку!

Однако игровой ИИ — это всего лишь набор правил и алгоритмов. Иногда сложных, иногда не очень. В качестве примера возьмём игру «Ним» , в которой двое поочерёдно берут предметы из кучек. Или крестики-нолики. В обоих случаях программа сводится к простому алгоритму: компьютер поочерёдно просчитывает все возможные ходы, а затем выбирает наиболее выгодный.

Игру го компьютер осилил с гораздо большим трудом, чем шахматы. Это стало возможно только благодаря последним успехам в области нейросетей.

Привычные нам игры, по большей части, ушли недалеко. Скажем, для стратегии в реальном времени самая сложная часть — это алгоритм поиска пути. Чтобы каждый юнит мог передвигаться и обходить препятствия, компьютер непрерывно просчитывает сотни вариантов маршрута и выбирает самый короткий.

А как же противники? Они кажутся сверхмозгом в основном благодаря искусственным преимуществам в ресурсах и возможности управлять всем хозяйством одновременно, остальное суть набор правил вроде атак волнами и последовательности постройки зданий. Опытные игроки хорошо об этом знают и неизменно находят слабые места.

Nimrod — один из первых компьютеров с графическим интерфейсом. Разрешение его «дисплея» — 4 на 7 точек, то есть 28 лампочек.

Несмотря на скромные начальные возможности, искусственный интеллект вошёл в игры почти с самого появления компьютеров — намного проще научить машину взаимодействовать с людьми в рамках жёстко заданных правил, чем в реальном мире.

Ум в предметах

В качестве примера игры с интересным ИИ часто приводят The Sims , ведь чтобы изображать повседневную жизнь людей, компьютер, наверное, должен думать как человек.

Кажется, что симы всё время о чём-то думают.

Игра умножает каждый из показателей на соответствующие нужды персонажа и пересчитывает всё в очки счастья: чем дольше сим не ходил в туалет, тем больше счастья принесёт ему комната для размышлений. Учитываются и прописанные персональные предпочтения, и расстояние до объектов. Социальная жизнь строится на том же принципе: когда кому-то из симов «станет скучно», он придёт поболтать — восполнить нужду.

Чтобы лучше представить себе этот алгоритм, создатель Sims Уилл Райт предлагает вообразить «ландшафт счастья» (happyscape): поверхность, на которой высота означает получаемое на ней количество счастья. Персонаж выбирает любой из ближайших холмов и использует манящий его предмет. Когда нужда будет удовлетворена, холм разглаживается, а сим переходит к покорению следующей вершины.

Девушка или холодильник? Пожалуй, холодильник!

Голод утолён, пора общаться — пирамида Маслоу в действии.

Иногда подопечные начинают творить откровенную ерунду — всё потому, что разработчики нарочно заложили изъян. Алгоритм берёт верхнюю часть списка нужных действий и выбирает из него случайным образом: сим может сесть смотреть телевизор, проигнорировав позывы мочевого пузыря. Если б персонажи сами отлично справлялись, это не оставило бы работы для игрока — иногда ИИ приходится нарочно портить.

Нейроны и норны

Порой разработчики пытаются создать ИИ, который действительно моделировал бы работу человеческого мозга, но таких примеров единицы. Наиболее знаменитый из них — игра о питомцах, под названием Creatures .

В 1992 году британский учёный Стив Гранд решил попробовать себя в разработке коммерческого софта. Он предлагал потенциальным инвесторам идею виртуального питомца — мыши, которая жила бы на рабочем столе Windows. Она должна была постепенно обучаться новым трюкам благодаря заложенной нейросети.

Норнам в Creatures предстоит освоить большой и красивый мир.

Позже идея превратилась в полноценную игру о виртуальных персонажах — норнах. Пушистое создание вылупляется из яйца, а человек должен помочь ему познать мир: научить каждому слову, повторяя его по много раз и показывая на то, что оно означает, а также заставлять выполнять простейшие действия, поощряя хорошее поведение. Тем не менее норны часто забывают уроки и ошибаются — это и есть огромное достижение разработчиков.

В основе искусственного интеллекта каждого питомца лежит нейросеть из тысячи нейронов, поделённая на кластеры. Каждый кластер выполняет одну из задач: чувства, фокусировка внимания, память и принятие решений. Норны ассоциируют действия с поощрениями и наказаниями и делают обобщения на основе предыдущего опыта, что помогает им действовать в новых условиях.

Общая схема мозга норна.

Поведение норнов регулируется теми же гормонами, что и у живых существ, поэтому они могут жаждать общения и развлечений, равно как чувствовать боль, голод, усталость и так далее, — всё это отражается на балансе химических элементов их крови в специальной консоли.

Каждое действие приходится втолковывать по много раз.

Так должна была выглядеть четвёртая часть Creatures, но до разработки дело не дошло.

Есть и другие примеры того, как искусственный интеллект изображает питомца со сложным поведением: вспомним гигантских зверей из Black & White , щеночков из Nintendogs или норовистого Трико из The Last Guardian . Однако имитация развития и обучения по-прежнему остаётся редкостью.

Все жаловались на капризы Трико, но разве не так ведут себя настоящие питомцы?

Вне индустрии компьютерных игр существуют научные проекты настоящей симуляции живых существ. В рамках проекта OpenWorm (на картинках) учёные воссоздали физическую модель тела круглого червя с тремя сотнями работающих нервных клеток: в виртуальном окружении червь ведёт себя так же, как вёл бы в жизни. А резонансный Human Brain Project , в который европейское правительство вложило миллиард евро, пытается воссоздать в машине человеческий мозг. Правда, до этого пока очень далеко.

Запах свежих трупов

До сих пор мы обсуждали тихие и спокойные игры. Как насчёт шутеров? В них ИИ должен принимать решения не просто на ходу, а на бегу. И пусть здесь компьютерные противники не растут и не развиваются (продолжительность их жизни чаще всего измеряется секундами), но они должны составлять достойную конкуренцию человеку. Или хотя бы не казаться слишком тупыми.

В ранних шутерах вроде Wolfenstein 3D и Doom с искусственным интеллектом всё было просто: монстры поворачивались в сторону игрока, бежали к нему и стреляли, как только он входит в комнату, — вот и весь алгоритм. В Quake их поведение уже стало достаточно сложным, чтобы игру начали критиковать за плохой ИИ.

Ом-ном-ном!

Первым же шутером, заслуживающим в этом плане внимания, стал Half-Life . Там были и дружественные персонажи, и сражения, не зависевшие от участия игрока, и прочие нетривиальные вещи. Чтобы сделать мир живым и подвижным, разработчикам из Valve пришлось написать огромное количество скриптов. Например, совсем недавно обнаружилось, что у персонажей и монстров в Half-Life есть обоняние: свежий труп в течение тридцати секунд испускает запах, и если, например, неподалёку бродит буллсквид, то он непременно прибежит полакомиться. Люди же, проходя мимо, заметят, что пахнет не очень.

F.E.A.R. . Контекстная информация в ИИ врагов позволяет им не просто действовать сообща, но прикрывать друг друга, прятаться за укрытиями вроде столов и книжных шкафов, открывать двери, выбивать окна, и так далее.

Но даже самый замысловатый ИИ в шутерах умён только при хорошо продуманных уровнях. Немалая часть «мозга» противников опять же заложена в окружение: дизайнеры уровней прописывают выгодные для стрельбы места и точки укрытий. Ну и конечно, при тестировании выявляются случаи, когда противник выбирает недосягаемую цель и печально упирается в стену. Вот такой вот интеллект!

Разработчики придумывают всё более красивые методы заставить нас думать, что мы имеем дело с равным противником. В компьютерной графике подобный обман называется «дым и зеркала», и точно так же, как компьютеру не под силу реальные оптика и физика, не может он и воссоздать интеллект человека. Приходится идти на уловки.

Впереди тем не менее всё то же непаханое поле. Да, можно обойтись и простыми скриптами — играть всё равно будет весело, но крутой ИИ полностью меняет игровой процесс. Учитывая последние достижения в области нейросетей, можно ожидать не просто улучшения разума противников в играх, но и появления совершенно новых механик.

Вспомним проект DeepMind , в рамках которого исследователи из Google ставят разные эксперименты с нейросетями, в том числе учат их играть в компьютерные игры. Всего за несколько часов компьютер становится профессионалом по одной из старых игр для Atari.

Если ждать достаточно долго, можно проникнуться своим несовершенством.

Не исключено, что, идя по этому пути, можно создать свирепейших соперников для современных игр. Или наоборот — разумных компаньонов. Кто знает?