Домой / Лицо / Так что такое искусственный интеллект и и почему его не стоит бояться. Почему

Так что такое искусственный интеллект и и почему его не стоит бояться. Почему

Пока менеджер Илон Маск паникует и пытается создать комитеты слежения за искусственным интеллектом во имя спасения человечества, профессиональные инженеры из IEEE заставили всех соблюдать законы робототехники. Хочешь проектировать ИИ? Только если обеспечишь безопасность.

Причем тут Илон Маск и Марк Цукерберг?


Еще 15 июля Илон Маск призвал американских губернаторов создать организацию для слежки за системами искусственного интеллекта. Мотив простой - по мнению Маска , рано или поздно они уничтожат человечество. Но мы еще этого не замечаем:

Илон Маск:

Пока люди не видят роботов, убивающих людей на улицах, они не знают, как реагировать, потому что такой сценарий кажется им нереалистичным.


Парадоксальное выступление от человека на острии науки, правда? Его высмеял даже Цукерберг. Невольно задумываешься - он вообще понимает, о чем говорит? Действительно ли он в состоянии проектировать будущее? Или, может быть, за этим предложением прячется желание законодательно одобренного шпионажа для получения новейших разработок?

Спи сладко, Илон. Спи сладко, читатель. За тебя уже все сделали в IEEE. ИИ больше не навредит.

Кто такие IEEE?


IEEE - , международная некоммерческая организация-разработчик стандартов по радиоэлектронике, электротехнике и аппаратному обеспечению вычислительных систем и сетей.

Фактически, организация обобщает и приводит к общему знаменателю разрозненные разработки, превращая их в единую систему: как для справки, так и для развития. С помощью этих стандартов разные разработчики получают возможность проектирования совместимых с чужими систем. Среди самых известных стандартов IEEE:

  • IEEE 1294 - USB,
  • IEEE 1394 - FireWire (i-Link),
  • IEEE 802 - семейство сетевых протоколов.

Последний знаком даже простым пользователям - вспомните, как называется версия Wi-Fi?

Как IEEE планирует регулировать ИИ


IEEE выпустила три новых стандарта, регулирующие этические вопросы работы систем искусственного интеллекта при обработке данных и взаимодействии с окружающим.

Документы относятся к разряду обязательных стандартов сообщества и были разработаны в рамках стандартизации работ по изучению этических аспектов ИИ и самоуправляемых автомобилей .

Содержимое стандартов объемно и содержит преимущественно информацию для разработчиков. В основе текстов - постановка этических проблем при обработке данных искусственным интеллектом и способы их решения.

В результате IEEE предложила готовую матрицу для программирования систем с учетом интересов и моральных норм человечества.

Что описывают стандарты IEEE о искусственном интеллекте?


Один из стандартов, IEEE P7004 , описывает правила сертификации и контроля тех организаций и систем, которые обрабатывают данные о детях и студентах. IEEE P7005 регулирует работу с данными о наемных работниках.

При его соблюдении ИИ и организации, работающие с данными, обязаны действовать, основываясь на безопасности и благополучии - даже с теми, что находятся в свободном доступе. Так же IEEE описала обязательные нормы, которым должны соответствовать доступ, сбор, хранение, использование, совместное использование и уничтожение данных о детях и учащихся.


Третий стандарт IEEE P7006 описывает для создание и контроль работы персонализированных ИИ-агентов - посредников в принятиях решений между несколькими компьютерами или системами. Методология разработки и технические элементы, заложенные в стандарте, должны исключить любые проблемы в работе интеллектуального аппарата.

Роботы не убьют человеков. IEEE всех спасли


Самое интересное кроется в стандарте IEEE P7006 . Он не просто описывает способы сертификации и задает законы робототехники - он процедуру, принцип работы искусственного интеллекта, связывающего человека и машину:

  • как должен работать ИИ-агент;
  • как должен предоставляться доступ к нему;
  • как должна вводиться информация;
  • как должно проходить обучение ИИ;
  • какие нормы этические нормы, правила и ценности должен заложить разработчик.

Первая версия стандарта если не введет 3 закона робототехники в обязательные для исполнения правила, то хотя бы минимизирует возможный вред. По мере развития технологий P70006 станет единым правилом, которое обеспечит защиту личности и безопасность всего человечества.

А если я не хочу соблюдать стандарт?

Стандарты IEEE как правило принимаются всем сообществом, и через некоторое время либо становятся универсальным документом для всех использующих технологию, либо превращаются в документ другой организации - при сохранении функций.


Соблюдение стандартов IEEE необходимо не только для получения бумаг от официальных структур. Многие принципы, заложенные в них, обеспечивают совместимость систем различных разработчиков. Кроме того, они работают в качестве сертификата соответствия, говоря о надежности продукта.

  • Перевод

Истерия вокруг будущего искусственного интеллекта (ИИ) захватила мир. Нет недостатка в сенсационных новостях о том, как ИИ сможет лечить болезни , ускорять инновации и улучшать творческий потенциал человека. Если читать заголовки СМИ, вы можете решить, что уже живёте в будущем, в котором ИИ проник во все аспекты общества.

И хотя нельзя отрицать, что ИИ открыл нам богатый набор многообещающих возможностей , он также привёл к появлению мышления, которое можно охарактеризовать, как веру во всемогущество ИИ. По этой философии, при наличии достаточного количества данных, алгоритмы машинного обучения смогут решить все проблемы человечества .

Но у этой идеи есть большая проблема. Она не поддерживает прогресс ИИ, а наоборот, ставит под удар ценность машинного интеллекта, пренебрегая важными принципами безопасности и настраивая людей на нереалистичные ожидания по поводу возможностей ИИ.

Вера во всемогущество ИИ

Всего за несколько лет вера во всемогущество ИИ пробралась из разговоров технологических евангелистов Кремниевой долины в умы представителей правительств и законодателей всего мира. Маятник качнулся от антиутопического представления об уничтожающем человечество ИИ к утопической вере в пришествие нашего алгоритмического спасителя .

Мы уже видим, как правительства обеспечивают поддержку национальным программам развития ИИ и соревнуются в технологической и риторической гонке вооружений , чтобы получить преимущество в бурно растущем секторе машинного обучения (МО). К примеру, британское правительство пообещало вложить £300 млн в исследования ИИ, чтобы стать лидером этой области. Очарованный преобразовательным потенциалом ИИ, французский президент Эмманюэль Макрон решил превратить Францию в международный центр ИИ . Китайское правительство увеличивает свои возможности в области ИИ с помощью государственного плана по созданию китайской ИИ-индустрии объёмом в $150 млрд к 2030 году. Вера во всемогущество ИИ набирает обороты и не собирается сдаваться.

Нейросети – легче сказать, чем сделать

В то время как многие политические заявления расхваливают преобразующие эффекты надвигающейся "революции ИИ ", они обычно недооценивают сложности внедрения передовых систем МО в реальном мире.

Одна из наиболее многообещающих разновидностей технологии ИИ – нейросети . Эта форма машинного обучения основывается на примерном подражании нейронной структуры человеческого мозга, но в гораздо меньшем масштабе. Многие продукты на основе ИИ используют нейросети, чтобы извлекать закономерности и правила из больших объёмов данных. Но многие политики не понимают, что просто добавив к проблеме нейросеть, мы не обязательно тут же получим её решение. Так, добавив нейросеть к демократии, мы не сделаем её мгновенно менее дискриминированной, более честной или персонализованной.

Бросая вызов бюрократии данных

Системам ИИ для работы нужно огромное количество данных, но в госсекторе обычно не бывает подходящей инфраструктуры данных для поддержки передовых систем МО. Большая часть данных хранится в офлайн-архивах. Небольшое количество существующих оцифрованных источников данных тонут в бюрократии. Данные чаще всего размазаны по различным правительственным департаментам, каждому из которых для доступа требуется особое разрешение. Кроме всего прочего, госсектору обычно не хватает талантов, оснащённых нужными техническими способностями, чтобы в полной мере пожать плоды преимуществ ИИ .

По этим причинам связанный с ИИ сенсационализм получает множество критики. Стюарт Рассел, профессор информатики в Беркли, давно уже проповедует более реалистичный подход, концентрирующийся на простейших, повседневных применениях ИИ, вместо гипотетического захвата мира сверхразумными роботами. Сходным образом профессор робототехники из MIT, Родни Брукс, пишет , что «почти всем инновациям в робототехнике и ИИ требуется гораздо, гораздо больше времени для реального внедрения, чем это представляют себе как специалисты в этой области, так и все остальные».

Одна из множества проблем внедрения систем МО состоит в том, что ИИ чрезвычайно подвержен атакам . Это значит, что злонамеренный ИИ может атаковать другой ИИ, чтобы заставить его выдавать неправильные предсказания или действовать определённым образом. Многие исследователи предупреждали о том, что нельзя так сразу выкатывать ИИ, не подготовив соответствующих стандартов по безопасности и защитных механизмов . Но до сих пор тема безопасности ИИ не получает должного внимания.

Машинное обучение – это не волшебство

Если мы хотим пожать плоды ИИ и минимизировать потенциальные риски, мы должны начать размышлять о том, как мы можем осмысленно применить МО к определённым областям правительства, бизнеса и общества. А это значит, что нам необходимо начать обсуждения этики ИИ и недоверия многих людей к МО.

Самое важное, нам нужно понимать ограничения ИИ и те моменты, в которые люди всё ещё должны брать управление в свои руки. Вместо того, чтобы рисовать нереалистичную картину возможностей ИИ, необходимо сделать шаг назад и отделить реальные технологические возможности ИИ от волшебства.

В медицине тоже признают, что ИИ нельзя считать решением всех проблем. Программа "IBM Watson for Oncology " была ИИ, который должен был помочь докторам бороться с раком. И хотя она была разработана так, чтобы выдавать наилучшие рекомендации, экспертам оказывается . В результате программу закрыли в большинстве госпиталей, где проходили её пробные запуски.

Схожие проблемы возникают в законодательной области, когда алгоритмы использовались в судах США для вынесения приговоров. Алгоритмы подсчитывали значения рисков и давали судьям рекомендации по приговорам. Но обнаружилось, что система усиливает структурную расовую дискриминацию, после чего от неё отказались.

Эти примеры показывают, что решений на основе ИИ для всего не существует. Использование ИИ ради самого ИИ не всегда оказывается продуктивным или полезным. Не каждую проблему лучше всего решать с применением к ней машинного интеллекта. Это важнейший урок для всех, кто намеревается увеличить вложения в государственные программы по развитию ИИ: у всех решений есть своя цена, и не всё, что можно автоматизировать, нужно автоматизировать.

Теги: Добавить метки

Искусственный интеллек (ИИ) пытается ворваться во все сферы жизни человека. Но прежде чем допускать искусственную нейросеть к новой проблеме стоит хорошо подумать.

Истерия вокруг будущего искусственного интеллекта (ИИ) захватила мир. Нет недостатка в сенсационных новостях о том, как ИИ сможет лечить болезни, ускорять инновации и улучшать творческий потенциал человека. Если читать заголовки СМИ, вы можете решить, что уже живёте в будущем, в котором ИИ проник во все аспекты общества.

И хотя нельзя отрицать, что ИИ открыл нам богатый набор многообещающих возможностей, он также привёл к появлению мышления, которое можно охарактеризовать, как веру во всемогущество ИИ. По этой философии, при наличии достаточного количества данных, алгоритмы машинного обучения смогут решить все проблемы человечества.

Но у этой идеи есть большая проблема. Она не поддерживает прогресс ИИ, а наоборот, ставит под удар ценность машинного интеллекта, пренебрегая важными принципами безопасности и настраивая людей на нереалистичные ожидания по поводу возможностей ИИ.

Вера во всемогущество ИИ

Всего за несколько лет вера во всемогущество ИИ пробралась из разговоров технологических евангелистов Кремниевой долины в умы представителей правительств и законодателей всего мира. Маятник качнулся от антиутопического представления об уничтожающем человечество ИИ к утопической вере в пришествие нашего алгоритмического спасителя.

Мы уже видим, как правительства обеспечивают поддержку национальным программам развития ИИ и соревнуются в технологической и риторической гонке вооружений, чтобы получить преимущество в бурно растущем секторе машинного обучения (МО). К примеру, британское правительство пообещало вложить £300 млн в исследования ИИ, чтобы стать лидером этой области.

Очарованный преобразовательным потенциалом ИИ, французский президент Эмманюэль Макрон решил превратить Францию в международный центр ИИ. Китайское правительство увеличивает свои возможности в области ИИ с помощью государственного плана по созданию китайской ИИ-индустрии объёмом в $150 млрд к 2030 году. Вера во всемогущество ИИ набирает обороты и не собирается сдаваться.


Нейросети – легче сказать, чем сделать

В то время как многие политические заявления расхваливают преобразующие эффекты надвигающейся "революции ИИ", они обычно недооценивают сложности внедрения передовых систем МО в реальном мире.

Одна из наиболее многообещающих разновидностей технологии ИИ – нейросети. Эта форма машинного обучения основывается на примерном подражании нейронной структуры человеческого мозга, но в гораздо меньшем масштабе. Многие продукты на основе ИИ используют нейросети, чтобы извлекать закономерности и правила из больших объёмов данных.

Но многие политики не понимают, что просто добавив к проблеме нейросеть, мы не обязательно тут же получим её решение. Так, добавив нейросеть к демократии, мы не сделаем её мгновенно менее дискриминированной, более честной или персонализованной.

Бросая вызов бюрократии данных

Системам ИИ для работы нужно огромное количество данных, но в госсекторе обычно не бывает подходящей инфраструктуры данных для поддержки передовых систем МО. Большая часть данных хранится в офлайн-архивах. Небольшое количество существующих оцифрованных источников данных тонут в бюрократии.

Данные чаще всего размазаны по различным правительственным департаментам, каждому из которых для доступа требуется особое разрешение. Кроме всего прочего, госсектору обычно не хватает талантов, оснащённых нужными техническими способностями, чтобы в полной мере пожать плоды преимуществ ИИ.

По этим причинам связанный с ИИ сенсационализм получает множество критики. Стюарт Рассел, профессор информатики в Беркли, давно уже проповедует более реалистичный подход, концентрирующийся на простейших, повседневных применениях ИИ, вместо гипотетического захвата мира сверхразумными роботами.

Сходным образом профессор робототехники из MIT, Родни Брукс, пишет, что «почти всем инновациям в робототехнике и ИИ требуется гораздо, гораздо больше времени для реального внедрения, чем это представляют себе как специалисты в этой области, так и все остальные».

Одна из множества проблем внедрения систем МО состоит в том, что ИИ чрезвычайно подвержен атакам. Это значит, что злонамеренный ИИ может атаковать другой ИИ, чтобы заставить его выдавать неправильные предсказания или действовать определённым образом.

Многие исследователи предупреждали о том, что нельзя так сразу выкатывать ИИ, не подготовив соответствующих стандартов по безопасности и защитных механизмов. Но до сих пор тема безопасности ИИ не получает должного внимания.

Машинное обучение – это не волшебство

Если мы хотим пожать плоды ИИ и минимизировать потенциальные риски, мы должны начать размышлять о том, как мы можем осмысленно применить МО к определённым областям правительства, бизнеса и общества. А это значит, что нам необходимо начать обсуждения этики ИИ и недоверия многих людей к МО.

Самое важное, нам нужно понимать ограничения ИИ и те моменты, в которые люди всё ещё должны брать управление в свои руки. Вместо того, чтобы рисовать нереалистичную картину возможностей ИИ, необходимо сделать шаг назад и отделить реальные технологические возможности ИИ от волшебства.

Долгое время Facebook считала, что проблемы типа распространения дезинформации и разжигание ненависти можно алгоритмически распознать и остановить. Но под давлением законодателей компания быстро пообещала заменить свои алгоритмы на армию из 10 000 рецензентов-людей.


В медицине тоже признают, что ИИ нельзя считать решением всех проблем. Программа "IBM Watson for Oncology" была ИИ, который должен был помочь докторам бороться с раком. И хотя она была разработана так, чтобы выдавать наилучшие рекомендации, экспертам оказывается сложно доверять машине. В результате программу закрыли в большинстве госпиталей, где проходили её пробные запуски.

Схожие проблемы возникают в законодательной области, когда алгоритмы использовались в судах США для вынесения приговоров. Алгоритмы подсчитывали значения рисков и давали судьям рекомендации по приговорам. Но обнаружилось, что система усиливает структурную расовую дискриминацию, после чего от неё отказались.

Эти примеры показывают, что решений на основе ИИ для всего не существует. Использование ИИ ради самого ИИ не всегда оказывается продуктивным или полезным. Не каждую проблему лучше всего решать с применением к ней машинного интеллекта.

Это важнейший урок для всех, кто намеревается увеличить вложения в государственные программы по развитию ИИ: у всех решений есть своя цена, и не всё, что можно автоматизировать, нужно автоматизировать. опубликовано

Если у вас возникли вопросы по этой теме, задайте их специалистам и читателям нашего проекта .

Пытаются приблизиться к ней. Но что представляет собой искусственный интеллект с точки зрения философа? Т&P публикуют статью доктора философских наук Сергея Голенкова, который с помощью Канта и Делеза ставит под сомнение саму возможность создания мыслящей машины.

Проблема сознания заключается в парадоксальной ситуации: мы, разумные существа, обладаем сознанием, оно у нас есть, но мы не знаем что такое сознание. Мамардашвили, определяя эту ситуацию, писал: «Сознание - это парадоксальность, к которой невозможно привыкнуть». Раскрывая особенность парадоксальности сознания, он указывал на две трудности в изучении сознания. Первая состоит в том, что само понятие «сознание» является предельным философским понятием, таким как понятие «бытие». А такого рода понятия не поддаются классическому родо-видовому определению. Другая трудность проистекает из того, что сознание «весьма странное явление, которое есть и которое в то же время нельзя ухватить, представить как вещь». Однако, есть еще одно обстоятельство, делающее проблему сознания особенно сложной. Дело в том, что само сознание всегда экранировано содержанием сознания. Поясню подробнее суть этой трудности.

В свое время Кант обсуждая вопрос о природе единства содержания мысли, писал в «Критике чистого разума», что условием единства содержания нашей мысли является «трансцендентальное единство апперцепции». О чем у него здесь идет речь. Вот в руке у меня лист бумаги. Эту ситуацию содержательно можно выразить следующим образом: «сейчас я держу в руке белый лист бумаги». Это словесное выражение будем считать содержанием мысли. В этой мысли соединены содержательно различные элементы. В ней присутствует представление о времени (слово «сейчас»), представление обо мне («я»), об одном из органов моего тела («рука»), представление о некой вещи («лист бумаги»), представление о свойстве этой вещи («белый»), представление о пространственном расположении листа бумаги относительно моего тела («в руке»). Кроме выраженных представлений, в этой мысли имплицитно содержаться, то есть словесно не выражены, и другие элементы ситуации, например, качество листа бумаги. Очевидно, что это все качественно (и потому содержательно) разные представления. Одни источником имеют тактильные ощущения (качество бумаги: гладкая/шероховатая), другие моторно-двигательные (держу в руке), третьи зрительные (белый цвет листа) и так далее.

Кант задает вопрос, что позволяет разным представлениям, из которых состоит всякая мысль, образовывать целое единство этой мысли? И он отвечает - трансцендентальное единство апперцепций. Это означает, что все данное в наглядном представлении многообразие объединяется при помощи трансцендентальной апперцепции в понятие объекта. Кант говорит, что это объединение есть акт, который сопровождает всякую содержательную мысль и может словесно выражен так: «Я мыслю». Иными словами, чтобы мысль о том, что сейчас я держу в руке белый лист бумаги, не распадалась на различные по содержанию представления, а была одной мыслью, эта мысль должна всегда сопровождаться актом мышления «Я мыслю».

Это «Я мыслю» и есть действие сознания в нас. Но трудность познания этого акта состоит в том, что акт «Я мыслю» всегда экранирован содержанием сознания «сейчас я держу в руке белый лист бумаги». И даже если мы обратим внимание на сам этот акт, то он становится содержательной мыслью, которая, чтобы быть единой, сама должна сопровождаться актом «Я мыслю». В этом случае мы имеем следующее словесное выражение «Я мыслю, что Я мыслю», где второе «Я мыслю» уже содержание мысли, для которой условием является акт первого «Я мыслю». Несмотря на то, что оба эти выражения одинаково составлены из одинаковых слов, это, несомненно, две разные «вещи». Первая выражает акт мысли, вторая - ее содержание. И для их познания нужны разные методы и инструменты. Здесь мы попадаем в ситуацию, которая хорошо известна в физике элементарных частиц (квантовой механике), когда невозможно одновременно, одними и теми же приборами, одними и теми же методами описать положение элементарной частицы и ее импульс (то есть указать вектор ее движения и скорость). Либо мы знаем, где находиться частица, но не знаем ее скорости в данный момент и направление движения, либо знаем вектор и скорость, но не знаем ее место положения.

Акт «Я мыслю» представляет собой некое существование, соотнесенное с сознанием, которое Мамардашвили и Пятигорским было названо «состояние сознания». Термином «состояние сознания» они обозначали по преимуществу независимое от любого мыслительного содержания «состояние нашего психофизиологического механизма, соотнесенного с сознанием». Замечу, что состояние, описываемое термином «мыслю» («Я мыслю»), принадлежат к тому же классу, что состояния «наблюдаю», «вспоминаю», «воспринимаю», «воображаю» и тому подобное. Это все состояния, так или иначе, связанны с сознанием, сознание в них присутствует.

Присмотримся теперь внимательнее к этому классу состояний сознания. В качестве примера рассмотрим состояние сознания «Я наблюдаю стол». Что мы в нем можем обнаружить? Прежде всего, то, что оно по своему составу не однородно. Есть элемент в этом состоянии, который связан с внешне данной вещью, данность которой определяет содержание нашего состояния. То, что мы наблюдаем (мыслим, вспоминаем и так далее) - стол. В акте наблюдения то, что обозначено термином «стол» составляет содержание этого акта, этого состояния сознания. И это содержание наблюдения (содержание состояния сознания) не определено внешней вещью. Стол, как наблюдаемое мною тело, не задает содержание того, что именно я наблюдаю.

Отсюда следует, что содержание наблюдения тела как явления осознаваемого, определяется не самим этим телом, а полностью задается сознанием. Особо подчеркну, не существование тела задается сознанием, а содержание наблюдения тела. Это означает, что в состоянии сознания «Я наблюдаю стол», стол выступает содержательным элементом наблюдения и, стало быть, находится «в» сознании как содержание наблюдения. Следуя традиции после Гуссерля, наблюдаемый стол является интенциональным предметом. Интенциональный предмет, в нашем случае «стол», составляет содержание сознания, он коррелятивен с реально существующим столом, но задан сознанием.

Обратим внимание на то, что пребывание в состоянии «Я наблюдаю стол» содержит в себе два «элемента»: реальный стол и «интенциональный» стол. А между ними зазор. И этот зазор непроходим для мысли, точнее, он не может быть преодолен интеллектуальными средствами, так как в него включены элементы, не принадлежащие мышлению. Какие это элементы? Мамардашвили и Пятигорский в своей работе называли один такой элемент - это «наш психофизиологический механизм». Очевидно, что без него невозможно состояние «Я наблюдаю стол». Укажу еще на ряд таких элементов. Состояние наблюдения (восприятия, воображения, мышления и так далее) - это состояние нашего существования, бытийное состояния. Специфика нашего существования - сознательного существования - в философской традиции после Хайдеггера определяется термином «экзистирование». Экзистирование - это существование способом понимания собственного существования. В чем специфика такого существования, «существования пониманием»? Что такое понимание?

Понимание можно рассмотреть как «внимание», «внятие», «принятие», «впускание», «ассимиляцию» некоего сущего в себя. Когда я понимаю некое сущее, например, когда я понимаю (или не понимаю) предмет своего наблюдения как стол, то тем самым я принимаю (или не принимаю) это сущее как/в содержание моего состояния. Иначе говоря, понимание здесь выступает своеобразным испытанием как модусом моего бытия, экзистирования. И этот модус по природе своей амбивалентен. С одной стороны, понимая (внимая, принимая и так далее) сущее, я испытываю себя на способность понять сущее, а, с другой - я испытываю само сущее на его истину, выведывая ее у сущего. Понимание предстает в этом случае в виде проверки на способность быть и себя, и сущего. Иными словами, в состоянии сознания в качестве необходимого элемента включены не только интеллектуальные процедуры, но и мои бытийные (и онтологические, и онтические) характеристики. В частности в понимании «участвует» такая структура как бытие-с-другим. Рассмотрим подробнее, каким образом эта бытийная структура определяет состояния сознания и его содержания.

В качестве примера такого влияния сошлюсь на анализ восприятия - а это состояние, как я уже отмечал выше, того же класса, что и наблюдение - в работе Жиля Делеза «Мишель Турнье и мир без Другого». В этой работе Делез показывает как другой в качестве элемента совместного бытия определяет мое восприятие. Прежде всего, отмечает Делез, другой оказывает организующее воздействие на мое поле восприятия предметов и идей. Это организующее воздействие проявляется в том, что узнаю или чувствую воспринимаемый предмет в качестве определенного предмета, то есть такого, который отличается от другого предмета. Я могу не знать и не понимать существа отличия одного предмета от другого. Я лишь фиксирую само отличие. Вот именно для восприятия отличия, границы другой и предоставляет мне возможность различения. Он выступает условием способности различения, разграничивания.

Рассмотрим этот момент подробнее. Разделим акт восприятие на последовательные шаги от начала до узнавания предмета: акт получения перцептивных ощущений от воспринимаемого предмета (выявление фигуры на фоне); акт «фокусирования» внимания на выделенном предмете (все остальные предметы сливаются в неразличимый фон); акт терминирования выделенного предмета, его словесное обозначение и акт интерпретации (то есть «узнавания» предмета), как акт включения значения (оно фиксировано термином) предмета в систему уже существующих значений (например, в систему языка). Таким образом, мы имеем четыре шага определения предмета в восприятии. Отвлечемся сейчас от того, что можно по-иному членить этот процесс. Здесь важно, что этот процесс имеет шаговую (или звеньевую, или этапную - или какую-нибудь еще) структуру. Важно подчеркнуть то обстоятельство, что между шагами, звеньями, этапами существуют зазоры. Они важны как раз тем, что в этих зазорах пребывает нечто, что, с одной стороны, не является структурным элементом восприятия, а с другой - без них восприятие не может быть реализовано. Другой как раз и выступает необходимым элементом восприятия. Поясню этот тезис.

Посмотрим на зазор, который находиться между актом сосредоточения внимания на предмете и актом называния предмета, наделения его именем. Для того чтобы этот переход состоялся необходимо, чтобы уже существовали слова, существовала речь, существовал язык, существовала культура называния, культура говорения. А все это возможно, только если существует другой. Более того, существование другого уже необходимо между первым и вторым шагом, чтобы состоялся процесс узнавания воспринятого предмета. Это Делез и имеет в виду, когда говорит, что другой выступает условием различения предметов и идей.

Фигуру другого в процессе восприятия нельзя интерпретировать «ни как объект в поле моего восприятия, ни как субъект меня воспринимающий» (хотя эмпирически, если другой человек находится в момент моего восприятия, он может быть такими объектом и субъектом). Так чем же в таком случае является другой? Делез пишет: «… Это прежде всего структура поля восприятия, без которой поле это в целом не функционировало бы так, как оно делает». Без этой структуры - структуры другого - восприятие не могло бы состояться. Эту структуру другого он называет «априорный Другой». Априорный, поскольку эта структура уже существует до всякого реального восприятия, выступая его условием. Функция этого априорного Другого (или структуры другого) состоит в том, чтобы выступать основанием других, которые будут осуществлять эту структуру в каждом конкретном поле восприятия. Иными словами, эта структура дает возможность состояться опыту конкретного восприятия. Поэтому эту структуру - структуру другого - Делез называет «структурой возможного». «Другой как структура, это выражение возможного мира».

Интересно посмотреть, что производит структура другого («априорный Другой» у Делеза) в таком состоянии сознания как восприятие. Главное следствие действия этой структуры, считает Делез, это разграничение моего сознания и его объекта. Поскольку другой вносит в мир различения, границы, кромки, переносы, которые обеспечивают появление предмета в поле восприятия, то этот предмет, в качестве воспринимаемого отделен от сознания и ему противостоит. Иначе говоря, возникают феномены «воспринимающий» (то есть сознание) и «воспринимаемый» (то есть предмет). До этого сознание и его объект были слиты в одно целое и их не существовало в качестве отдельных феноменов. Именно другой обеспечивает разграничение сознания и его объекта. Далее, становление разграничения сознания и его объекта есть одновременно возникновение пространства, так как возникают различные места - «здесь» и «там». Мое сознание (или «воспринимающий Я») занимает место «здесь», а воспринимаемый предмет занимает место «там». Наконец, появление другого превращает мой мир в прошлый мир, опрокидывает мое сознание в позицию «я был». Другой приносит с собой возможный мир и тем самым вносит в мир временные разграничения. Возникает время в своих феноменах прошлого, настоящего и будущего.

Упомяну еще один элемент, который находится в состоянии сознания и обеспечивает как само существование этого состояния, так и его содержание. В своей работе почти полувековой давности «Анализ сознания в работах Маркса» Мамардашвили показал, что сознание, по Марксу, есть «функция, атрибут социальных систем деятельности», и что содержания и формообразования сознания производятся «из переплетения и дифференциации связей системы (социальной деятельности - С.Г.), а не из простого отображения объекта в восприятии субъекта». Иными словами, содержания сознания (и мышления, как феномена сознания) являются производными от системы социальной деятельности человека. Таким образом, состояния сознания включают в себя как необходимый элемент социальную составляющую индивидуального бытия, то есть ту систему общественных связей, в которую включен индивид как социальный субъект. Элементы, которые были рассмотрены - зазор между реальной вещью и интенциональным предметом, социальная система, структура другого в работе сознания (и мышления) - свидетельствуют о неконтинуальности сознания (мышления).

Зазор, который содержит в себе неинтеллектуальные компоненты не может быть преодолен за счет работы мысли. Он преодолевается лишь индивидуальным усилием быть - испытанием бытия/бытием - как актом не интеллектуальным, а экзистенциальным. Иначе говоря, «работа» мысли требует в качестве необходимых условий жизненные (физиологические, психические, социальные и так далее), а не только интеллектуальные элементы. Это обстоятельство и позволяет поставить под сомнение попытки создания искусственного интеллекта.

Читайте в Bookmate:

Искусственный интеллект уже в некотором роде помогает определиться вашему будущему. Когда вы ищете что-нибудь в поисковике, пользуетесь сервисом вроде Netflix или банк оценивает вашу пригодность для ипотеки. Но что будет, если искусственному интеллекту придется определять, виновны вы или нет, в суде? Как ни странно, в отдельных странах это уже, возможно, происходит. Недавно американского высокого судью Джона Робертса спросили, может ли он представить день, когда «умные машины, управляемые искусственным интеллектом, будут помогать в поиске улик или даже в принятии судебных решений». Он ответил: «Этот день уже настал, и он существенно помогает судебным органам в производстве дел».

Возможно, Робертс имел в виду недавний случай Эрика Лумиса, которого приговорили к шести годам заключения по рекомендации секретного проприетарного программного обеспечения частной компании. Лумис, который уже имел криминальную историю и был приговорен за то, что бежал из полиции на угнанной машине, теперь утверждает, что его право на процедуру было нарушено, поскольку ни он, ни его представители не смогли рассмотреть или опротестовать алгоритм рекомендации.

Отчет был подготовлен программой Compas, которая продается Notrpointe судам. Программа воплощает новую тенденцию в исследованиях ИИ: помогает судьям принять «лучшее» (или по крайней мере более ориентированное на данные) решение в суде.

Хотя конкретные подробности дела Лумиса остаются закрытыми, в нем наверняка содержатся диаграммы и числа, определяющие жизнь, поведение и вероятность рецидива Лумиса. Среди них возраст, раса, гендерная идентичность, привычки, история браузера и какие-нибудь измерения черепа. Точнее никто не знает.

Известно, что прокурор по делу сказал судье, что Лумис продемонстрировал «высокий риск рецидивизма, насилия, досудебного разбирательства». Это стандартно, когда дело касается вынесения приговора. Судья согласился и сказал Лумису, что «по оценке Compas он был определен как лицо, представляющее высокий риск для общества».

Верховный суд штата Висконсин осудил Лумиса, добавив, что отчет Compas привнес ценную информацию в его решение, но отметил, что без него он вынес такой же приговор. Проверить это наверняка, разумеется, не получится. Какими могут быть когнитивные предубеждения, когда в деле участвует всемогущая «умная» система вроде Compas, которая советует судьям, как им поступать?

Давайте будем откровенны, нет ничего «незаконного» в том, что сделал суд Висконсина - это просто пример. Другие суды могут и будут делать то же самое.

К сожалению, мы не знаем, в какой степени используются ИИ и другие алгоритмы при вынесении приговора. Есть мнение, что некоторые суды «тестируют» системы вроде Compas в закрытых исследованиях, но не могут заявлять о своем партнерстве. Есть также мнение, что несколько стартапов ИИ разрабатывают подобные умные системы.

Однако использование ИИ в законодательстве не начинается и не заканчивается вынесением приговора, оно начинается с расследования. В Великобритании уже разработана система VALCRI, которая выполняет трудоемкие аналитические работы за считанные секунды - пробирается сквозь тонны данных вроде текстов, лабораторных отчетов и полицейских документов, чтобы выделить вещи, которые могут потребовать дальнейшего расследования.

Полиция Уэст-Мидландс в Великобритании будет тестировать VALCRI в течение следующих трех лет, используя анонимные данные, содержащие больше 6,5 миллиона записей. Похожее испытание проводится полицией Антверпена в Бельгии. Однако в прошлом проекты ИИ и глубокого обучения, включающие массивные наборы данных, были проблемными.

Выгоды для немногих

Технологии обеспечили множество полезных приспособлений залам суда, от копировальных аппаратов до извлечения ДНК из отпечатков пальцев и сложных методов наблюдения. Но это не означает, что любая технология - это улучшение.

Хотя использование ИИ в расследованиях и приговорах может потенциально сэкономить время и деньги, оно породит острые проблемы. В докладе по Compas от ProPublica было четко сказано, что черных программа ошибочно считает более склонными к рецидивизму ответчиками, чем белых. Даже самые сложные системы ИИ могут унаследовать расовые и гендерные предубеждения тех, кто их создает.

Более того, какой смысл перекладывать принятие решений (по крайней мере частично) по вопросам, которые уникальны для людей, на алгоритм? В США существует определенная трудность, когда суд присяжных судит своих сверстников. Стандарты в законах никогда не были эталонными, потому эти суды присяжных считаются наиболее демократичными и эффективными системами осуждения. Мы совершаем ошибки, но со временем накапливаем знания о том, как их не совершать, уточняя систему.

Compas и подобные ей системы представляют «черный ящик» в правовой системе. Таковых быть не должно. Правовые системы зависят от непрерывности, прозрачности информации и способности к рассмотрению. Общество не хочет появления системы, которая поощряет гонку с созданием стартапов ИИ, которые делают быстрые, дешевые и эксклюзивные решения. Наспех сделанный ИИ будет ужасным.

Обновленная версия Compas с открытым исходным кодом была бы улучшением. Но сперва придется поднять стандарты системы правосудия, прежде чем мы начнем снимать ответственность в пользу алгоритмов.