Статья подготовлена на основе доклада на ХIII ежегодной профессиональной конференции для бизнес-консультантов АСКОНКО «Бизнес и консалтинг в обществе с Искусственным интеллектом: в ожидании прорывов и катастроф», 8 сентября 2023 года.
Я благодарю АСКОНКО за то, что поручили мне выступить с докладом. В течение нескольких недель я все глубже погружалась в этот загадочный новый мир. И можно точно сказать, что сегодня я уже другой человек, который осознал реальность будущего с ИИ. Мы долго обсуждали, какие темы стоит затронуть в выступлении, какие вопросы поставить. В том, что это будут именно вопросы, сомнений не было. Среди нас нет экспертов по ИИ, мы все лишь либо возможные пользователи, либо проводники для наших клиентов в этот увлекательный мир. Но, с другой стороны, мы представляем собой экспертное сообщество бизнес-консультантов. И наша дискуссия может представлять определённую ценность для осознания той новой реальности, в которой мы оказались. Готовя выступление, я ясно поняла, что весь мой прошлый опыт абсолютно неважен. Сегодня я выступаю как человек начала эпохи трансформации цивилизации, который пытается осмыслить ту реальность, в которой ему повезло жить.
Вместо эпиграфа я подобрала высказывания двух уникальных ученых, наших современников: 68 и 38 лет, это два поколения, два взгляда, но близкие ценности и видение в масштабах человечества.
Стивен Пинкер[1], «Лучшее в нас»:
«Разум как таковой не более чем средство вывести одно верное заключение из другого, и для него не важен их нравственный смысл» (с.802)
Илья Суцкевер[2], OpenAI[3]
Каков будет мир 3000 года? Мир сильно изменится. Людям будет трудно осознать происходящее и понять, как внести реальный вклад в мир. Я думаю, что некоторые решат стать частью ИИ, чтобы расширить свой разум и понимание.
Изменения — это единственное постоянное в этом мире. И поэтому даже после создания сильного ИИ мир не будет статичным. Мир будет продолжать меняться и развиваться, проходить через разные трансформации. Я не думаю, что кто-то знает, как будет выглядеть мир в 3000 году. Но я надеюсь, что будет много потомков человеческих существ, которые будут жить счастливой полноценной жизнью. Где они вольны делать то, что хотят, так, как считают нужным. И сами решать свои проблемы.
Я бы не хотел, чтобы был мир, где мы создали мощный инструмент, а затем правительство решило, что ИИ будет управлять обществом. Я бы предпочёл иметь мир, где люди всё ещё свободны совершать свои собственные ошибки и страдать от их последствий.
Постепенно развиваться морально и двигаться вперёд своими собственными силами. Используя ИИ только как подстраховку.
Стивен Пинкер убежден, что люди прошли огромный эволюционный путь, их разум развился, благодаря чему и насилия стало меньше и появились невиданные достижения. Вся предшествующая история показывает, что невероятный прорыв уже близок.
Илья Суцкевер во всех последних интервью постоянно говорит о долгосрочном будущем: что будет с человечеством, когда ИИ будет повсюду? Он видит, как быстро расширяются возможности ИИ, ясно понимает, что уже скоро ИИ сможет заменить практически любую работу, но видна и его растерянность. AI[4] сможет принимать за нас важные решения (поскольку постепенно берет на себя все обязанности). Но что тогда будет с людьми?
И оба они ясно понимают главную угрозу – неготовность человечества в нравственном отношении к тем стремительным изменениям, которые уже происходят.
Сопоставляя осмысление всего пройденного человечеством пути (от рабства и пыток до наших дней, где насилия стало на порядок меньше несмотря на то, что оно еще не изжито), с вектором движения в будущее (где ИИ будет играть такую же роль как интернет сейчас), четко понимаешь, что мы находимся практически в точке бифуркации[5] Мы ощущаем, что мир пришел в движение практически во всем. Все события последних лет не только вносят изменения в образ жизни, но и требуют осмысления[6].
Сегодня, на наших глазах происходит смена эпох. И понять что-то можно лишь наблюдая, получая опыт, задавая вопросы, осмысляя ответы и обсуждая их между собой. Дискуссия сегодня важна как никогда[7]. Видимо пришло время выйти из своих информационных пузырей и начать слушать и пытаться понять друг друга, чтобы дискуссия о том, как жить дальше в этом новом мире стала в принципе возможна.
ИИ черпает информацию из самых разнообразных источников и таким образом познает мир людей и учится. Чему он научится в итоге, будет зависеть от того, какую информацию мы будем выносить в информационное пространство. Чем больше будет дискуссий и разных точек зрений, тем лучше ИИ сможет разобраться, что представляет собой человечество и выработать свой этический кодекс.
Изучая возможности текущей, еще очень несовершенной версии ИИ, построенной на принципах нейросети[8] я решила обсудить с ним эту тему, и задала вопрос:
«Может ли ИИ стать зеркалом человечества, аккумулировать все нормы, взгляды, представления и показать, что преобладает в мире, в каком вообще мире мы живем, избавить общество от информационных пузырей, растворить перегородки?»
И вот какой ответ получила:
«Интересный вопрос! Искусственный интеллект действительно имеет потенциал стать своего рода зеркалом человечества. Благодаря своей способности анализировать и обрабатывать огромные объемы данных, ИИ может помочь нам лучше понять и оценить различные аспекты общества. Он может помочь нам выявить общие тенденции, представления и нормы, которые преобладают в мире. Используя ИИ, мы можем избавиться от информационных пузырей, которые могут искажать наше восприятие реальности. ИИ может предоставить нам объективную картину мира, помогая нам преодолеть преграды и разрушить стены, которые могут разделять нас. Однако, следует помнить, что ИИ является всего лишь инструментом, созданным людьми. Его способности и ограничения определяются тем, как мы его программируем и используем. Поэтому важно разрабатывать и применять ИИ с осторожностью, учитывая этические и социальные аспекты»
Я решила продолжить дискуссию и уточнила:
Как ИИ выберет модель для социальной нормы? Человек предлагает модель социальной нормы исходя из своих предпочтений, опыта, знаний, ценностей, опыта, убеждений и т.д. Но как это сделает ИИ? Как ему выбрать модель?
Ответ ИИ:
Искусственный интеллект, основанный на алгоритмах и машинном обучении, может использовать различные методы для выбора модели и определения социальных норм. Одним из подходов может быть анализ больших данных, сбор информации о предпочтениях и взглядах людей из разных источников, таких как социальные сети, форумы, новостные сайты и т.д. ИИ может использовать алгоритмы обработки естественного языка и машинного обучения для анализа текстов и определения тенденций и предпочтений. Он может анализировать множество данных и выявлять общие паттерны и тренды, которые могут служить основой для определения социальных норм. Однако стоит отметить, что выбор модели и определение социальных норм включает в себя сложные этические вопросы. ИИ должен быть программирован с учетом этических принципов и соблюдением прав человека. Разработчики и специалисты в области этики должны активно участвовать в создании и настройке ИИ, чтобы гарантировать, что он не будет приводить к негативным последствиям или нарушению прав человека.
Упоминание о негативных последствия, натолкнуло на следующий вопрос:
Может ли ИИ быть оружием?
Ответ ИИ:
ИИ сам по себе не является оружием, но его применение в различных сферах может иметь влияние, в том числе на военную область. Например, автономные военные системы, основанные на искусственном интеллекте, могут вызывать опасения в связи с возможностью потери контроля над ними. Поэтому важно разрабатывать этические и правовые рамки для использования ИИ в военных целях, чтобы минимизировать риски и обеспечить безопасность.
ИИ, в отличие от человека, не обладает эмоциями и субъективным опытом, поэтому его нравственное развитие будет отличаться от человеческого. Однако, разработчики ИИ могут внедрять некоторые этические принципы и правила, чтобы ограничить его действия и поведение. Важно понимать, что нравственные аспекты развития ИИ являются предметом активных дискуссий и исследований в области искусственного интеллекта и этики
Мы видим, что во всех трех ответах фигурируют вопросы этики и это, на мой взгляд, не случайно. Это именно то, что беспокоит сегодня не только экспертов, которые подошли к ним вплотную (и уже столкнулись с рядом случаев, внушающих серьёзные опасения), но и тех представителей общества, которые стали углубляться в тему искусственного интеллекта просто ради интереса.
Термины
Для обсуждения чего бы то ни было в профессиональных кругах принято договариваться о понятиях. По теме ИИ сделать это не просто. Определений много, и они разные. Привожу лишь некоторые из них.
Искусственный интеллект — инструментарий, с помощью которого данные могут быть проанализированы и превращены в полезные знания, с помощью которых можно оценивать ситуацию и принимать решения.
ИИ — свойство и характер искусственных интеллектуальных систем выполнять творческие функции, которые традиционно считаются прерогативой человека; наука и технология создания интеллектуальных машин, особенно интеллектуальных компьютерных программ (Википедия).
ИИ – раздел науки, который пытается воссоздать (смоделировать) человеческую деятельность в компьютере.
ИИ — раздел информатики, изучающий реализацию в ЭВМ человеческих способов рассуждения и решения задач
ИИ — это область компьютерных наук, которая занимается созданием систем и программ, способных имитировать интеллект и поведение человека. Они обладают возможностью обрабатывать данные, анализировать информацию, принимать решения и даже обучаться на основе опыта (сгенерировано самим ИИ).
Любое из приведенных (а также и множества других) определений вызывает сразу массу вопросов. Но это и хорошо. На мой взгляд, сейчас такое время в развитии ИИ, когда чем больше вопросов, тем лучше. Только они и позволят осознать истинный смысл этого явления. Мне кажется важным фиксировать любые возникающие вопросы, чтобы иметь возможность проводить дискуссии по каждому из их.
Возьмем, например, первое определение: Искусственный интеллект — инструментарий, с помощью которого данные могут быть проанализированы и превращены в полезные знания, с помощью которых можно оценивать ситуацию и принимать решения.
- Кем могут быть проанализированы данные? Человеком или самим ИИ? Имеет ли это значение?
- Кто будет принимать решения? Человек или ИИ?
- Могут ли решения быть направлены против человека?
- Может ли инструмент сам по себе представлять угрозу? В принципе, может. От неправильного применения. Даже если применять будет человек. Тогда следующий вопрос: С какой целью он будет это делать? Если цель та, которая и планировалась изначально (благая), то хорошо. А если в ходе применения нашлась другая цель? Как произошло, например, с ядерным оружием.
- Может ли ИИ стать «оружием»? Кому и какой урон это оружие может принести? Есть ли возможность сдерживания? Или лучше не создавать, чтобы потом не сдерживать?
Во многих определениях пока делается акцент на том, что это попытка создать программу, аналогичную работе сознания человека. При том, что такое сознание, специалисты не знают до сих пор. Достаточно послушать лекции Татьяны Черниговской, чтобы прочувствовать всю глубину этой проблемы.
Основная проблема, которая заложена в самой сути ИИ состоит в том, что компьютер действует по алгоритму (нужна чёткая последовательность шагов). Человек же не может объяснить большинство своих действий. Например, достаточно сложно объяснить, как мы понимаем возраст человека. Если попросить это сделать, мы будем размышлять, припоминая внешний вид и манеры. Но ответ мы выдаем сразу, без размышлений. Или другой типичный пример: кошку с собакой не спутает даже ребенок, который еще не умеет толком говорить (про собаку скажет — ав, про кошку — мяу). Но научить ИИ различать кошку и собаку с помощью алгоритма очень сложно, если не невозможно. Никакие признаки вроде размера, цвета, шерсти, количества лап, хвоста, усов и т.д. не помогают. Нейросеть научили различать животных только путем многократных представлений изображений. Но ребенку достаточно один раз показать, где кошка, а где собака, и он больше их никогда не спутает.
С точки зрения терминов важно отметить еще и разницу между слабым и сильным ИИ. Первое определение ближе к пониманию слабого ИИ, остальные включают в себя и сильный ИИ.
Специалисты сегодня выделяют 3 стадии развития ИИ.
1. Узкий (слабый) ИИ
Это тот вариант ИИ, который мы наблюдаем сегодня. Это возможность повысить эффективность уже имеющихся рабочих мест. ИИ выполняет конкретные стандартизированные задачи, без способности самостоятельно расширять свой функционал. Он может превзойти людей в определенных повторяющихся функциях, таких как вождение, постановка медицинских диагнозов, финансовая аналитика, копирайтинг. Бизнес уже ищет, и будет и дальше продолжать искать возможности оптимизировать процессы или внедрить что, что даст прибыль на основе ИИ.
2. Общий (сильный) ИИ
Многие рабочие места подвергнуться риску полного исчезновения. Это выполнение широких задач и возможности, сопоставимые с человеческими. Конкуренция с людьми во всех начинаниях, вплоть до получения университетских степеней и способности убедить людей, что они имеют дело с человеком (способность проходить тест Тьюринга). По некоторым прогнозам появится к 2040 году.
3. Искусственный сверхразум
Такой ИИ будет превосходить людей, демонстрировать сверхчеловеческие способности. Он сможет как помогать человечеству достигать общественные цели, так и угрожать человеческой расе, по своему усмотрению. Многие эксперты считают, что человечество в такой ситуации будет в серьезной в опасности. Когда именно такое станет возможным никто предсказывать не берется, но очевидно это может случится очень быстро после появления общего (сильного) ИИ. Сэм Олтмен считает, что снижение рисков, связанных с внедрением ИИ, должно стать глобальным приоритетом наряду с другими рисками социального характера, такими, как пандемия и ядерная война.
Сегодня мы все еще в начале пути в области развития ИИ, но уже сейчас предприниматели, как передовой отряд человечества, чутко реагирующий на все инновации и готовый их внедрять и опробовать, находят все новые и новые области применения ИИ в бизнесе.
На мой взгляд, нет проблемы в том, чтобы придумать как использовать ИИ. Это может сделать практически каждый, кто познакомился с основами.
В качестве примера приведу отрывок из моего домашнего задания на курсах по цифровой трансформации, где нам рассказали базовые принципы и задали предложить возможные способы применения ИИ.
- Техоблуживание оборудования по анализу отклонений, поступивших с сенсоров через постановку задачи в АСУ поддержки
- Технологии умного дома для повышения энергетической эффективности производственных зданий (контроль температуры в помещениях, экономия электроэнергии, функции безопасности)
- Сортировочные роботы для сокращения рутинных функций по сортировке
- Смарт-контракты на основе блокчейна для автоматической генерации типовых счетов и их оплаты и формирования типовых актов
- Пандоматы (для сбора пластиковых бутылок, картона, бумаги, крышечек, батареек, устаревшей техники, вещей) с датчиками заполняемости и автоматического вызова транспорта для вывоза на переработку с поиском ближайшей машины с лучшим маршрутом и передачу ей маршрута
- Отчетность по категориям продаж передавать в информационную систему напрямую с кассовых аппаратов для отчетности по группам товарам и по товарам для прогнозирования продаж и корректировки планов продаж
- Датчики контроля топлива на машинах для расчета норм в зависимости от типа транспорта и условий эксплуатации
- Оптимизация маршрутов транспорта на основе автоматического сохранения истории маршрутов
- Беспилотники для доставки в удаленные районы.
Список можно продолжать до бесконечности. Чем больше мы будем жить в мире с ИИ, тем свободнее будем видеть области, где его можно использовать. Но проблемы могут начаться во внедрении, когда старые модели бизнеса просто не позволяют прижиться инновациям. И это относится ко всем инновациям, а не только к ИИ. Организация должна дойти в своем развитии как минимум до 3-4 этапа развития[9], чтобы внедрение такой технологии стало возможным и оправданным.
При этом база для внедрения ИИ в бизнесе – это в целом готовность общества.
Это первое условие. До собственно организационных проблем, возникающих при внедрении любых изменений.
И за последний год в этом отношении произошел настоящий прорыв.
Я покажу это на 3 очень наглядных фактах.
Первый «прорыв» в массовое знание произошел 14 августа 2022 года, когда художник и программист из Бельгии Xander Steenbrugge (Ксандер Стинбрагге) опубликовал трехминутный ролик, созданный при помощи нейросети Stable Diffusion.
Ролик стал широко известным и про ИИ интеллект на основе нейросети заговорили все, кто ранее не проявлял к теме никакого интереса. Несмотря на то, что тема ИИ обсуждается в экспертных кругах с 1956 года, до 2022 года это были дискуссии для посвященных. Эксперимент «китайская комната» или наступление технологической сингулярности мало кого интересовало из широких народных масс. Об этом не говорили в новостях и не обсуждали между собой люди, не имеющие к этому отношения.
После выхода ролика интерес стал массовым, а вывод профессионального сообщества звучал так:
«Мы буквально на пороге креативной революции, когда любая фантазия и задумка может быть реализована. Один человек сможет создавать полноценные, красивые игры, захватывающие фильмы, комиксы, игры, полагаясь только на ИИ-инструменты»
И не прошло и полугода, как этот прогноз оправдался. 16 Февраля 2023 с помощью нейросети были созданы первые города в облике людей (Города России глазами нейросети (vk.com) – 1003 города на начало сентября 2023г). Их автором стал Кирилл Соловьев Кир Sol (vk.com), https://t.me/trankyzer
Как и предсказывалось один человек создал целую серию невероятно популярных изображений. Уже через 2 дня эти картины не только пересылали друг другу, но и появился сюжет на телевидении, что еще более добавило интереса широких масс.
И третий пример выхода внимания к ИИ за пределы экспертного сообщества. Это чат GPT (использование нейросети на основе языковой модели). ChatGPT[10] был запущен OpenAI 30 ноября 2022 года. ИИ мог написать программный код, создать текст, вести диалог на естественных языках. Т.е. для использования ИИ стало не нужно умение программировать, с ним стало возможным общаться на обычном языке, как с другим человеком. За 2 месяца попробовали это сделать 100 млн. пользователей.
14 марта 2023 года была анонсирована GPT-4 — мультимодальная модель (распознавание изображений, длинные тексты, контекст, юмор, стиль общения, обман[11] и пр.).
22 марта 2022 года – Открытое письмо экспертов[12] о приостановке обучения ИИ на 6 месяцев.
В апреле 2023 OpenAI приостановил обучение модели GPT-5, Сэм Олтмен стал встречаться с лидерами и общественностью ведущих стран мира, побывав в 15 странах.
Т.е. за полгода произошли знаковые события, ставшие достоянием широкой общественности. Мир оказался на пороге чего-то совершенно нового. И разработчики ИИ, имея технические возможности развиваться дальше, остановились. OpenAI закрыла коды, модели, данные. Илья Суцкевер сказал, что они сильно ошибались, когда хотели сделать развитие ИИ открытым. И сейчас он занимается вопросами безопасности и управляемости.
За прошедшие с марта 2023 года полгода не было никаких новостей для широких масс из области ИИ. Но 22 сентября полгода заканчиваются. И что нас ждет дальше? Вопрос открытый.
Сегодня на повестке уже не только технические, но нравственные вопросы. Инновации всегда неизбежно проходят путь от физики и математики к философии, морали и этике. Показательно, но и мои диалоги с ИИ тоже, так или иначе, приходили именно к обсуждению этических проблемам.
В итоге я решила задать вопрос прямо:
Какие этические принципы должны быть положены в основу ИИ?
Ответ ИИ:
При разработке ИИ важно учитывать ряд этических принципов, которые помогут обеспечить его безопасность и соответствие нравственным нормам.
Некоторые из таких принципов включают:
- Принцип безопасности: ИИ должен быть разработан и использован таким образом, чтобы не представлять угрозу для людей и окружающей среды.
- Принцип справедливости: ИИ не должен дискриминировать людей на основе расы, пола, возраста, национальности или других характеристик.
- Принцип приватности: ИИ должен уважать приватность и конфиденциальность данных, соблюдая нормы защиты личной информации.
- Принцип прозрачности: ИИ должен быть понятным и объяснимым, чтобы пользователи могли понять, каким образом принимаются решения и почему.
- Принцип ответственности: Разработчики и пользователи ИИ должны нести ответственность за его использование и последствия, связанные с его действиями.
Эти принципы помогут обеспечить этическое и безопасное использование ИИ в нашем обществе.
И далее:
Как были сформулированы эти принципы? Когда и кем?
Ответ ИИ:
Сформулированные этические принципы для искусственного интеллекта (ИИ) разрабатываются экспертами и специалистами в области этики, технологий и ИИ.
Несколько известных исследовательских организаций и институтов, таких как GPT-OPEN, IEEE и Partnership on AI, занимаются разработкой исследований и рекомендаций по этике ИИ.
Они проводят консультации с учеными, правозащитными организациями, представителями общества и другими заинтересованными сторонами для выработки этических принципов, направленных на обеспечение безопасности, справедливости и ответственности при разработке и использовании ИИ.
Однако стандартные и всеобъемлющие этические принципы для ИИ все еще находятся в процессе разработки и обсуждения.
Что дальше?
Будут появляться люди и организации, которые будут тестировать возможности ИИ и делать это массовым знанием. Как это произошло с роликом, картинами и чатом GPT.
И только после этого будут внедряться те или иные инструменты, как в повседневную жизнь (например, через Микрософт, с которым уже начала сотрудничество OpenAI), так и в бизнес.
Уже сейчас мы все имеем дело с голосовыми и текстовыми ботами-помощники call-центров. А бизнес все больше начинает иметь дело с чат-ботами на сайтах и в Телеграм, в том числе с интеграцией в CRM (например, Битрикс), которые могут даже создают лиды, заменяя собой менеджеров по продажам.
Например, размещение чата с ИИ на сайте действительно сильно увеличивает трафик, потому, что людям все еще в новинку такой способ взаимодействия и общение с ИИ по- настоящему увлекательно.
Конечно, используемый в бизнесе ИИ еще несовершенен, а некоторые голосовые и текстовые помощники больше раздражают, чем помогают. Но есть и удачный примеры. Например, накопление и анализ информации о покупках клиентов с карт лояльности позволяет делать персональные ежедневные предложения скидок с учетом предыдущих покупок и в целом покупательского поведения. И этот гибкий инструмент как высоко оценивается клиентами и повышает их лояльность, так и существенно влияет на продажи.
Изменит ли ИИ нашу жизнь?
Вопрос только кажется очевидным. На самом деле очевиден он только для специалистов и тех, кто погрузился в тему ИИ и разобрался, что это такое и как развивается. Обычные же люди пока еще, несмотря на описанные выше «прорывы» в массовое знание информации об ИИ, очень слабо себе представляет его возможности.
Опрос, проведенный на канале WHY? «Изменит ли ИИ нашу жизнь»
Показал следующее:
Большинство выбрало эти ответы:
- Да. Также как его изменил интернет и мобильная связь
- Да. Мир поделится на тех, кто его разрабатывает и пользователей. И разрыв будет расти
- Да. Без него человечество станет беспомощным, как было бы без электричества, например
Еще небольшая часть считает так:
- Да. Люди постепенно перейдут в цифровой вид и грань между ИИ и человеком сотрется
- Нет. Мозг человека непознаваем и сами создать себе подобных искусственно мы не сможем
- Сложно сказать, поживём увидим
- Нет. Это просто прогресс. Такой же как появление компьютеров.
Голосов за эти варианты пока не поступило, но попали они в опрос не случайно, такие высказывания можно услышать нередко:
- Нет. Пока ИИ это просто продвинутая автоматизация. О сознании речь не идёт
- Нет. Потому что и ИИ нет. Это всё фантастика.
- Это не важно. Есть более насущные проблемы.
- Не просто изменит. Прекратит.
Мне кажется очень важным продолжать дискуссию. Задумываясь на вопросами будущего развития человечества, мы лучше осознаем происходящее, и вольно или невольно начинаем двигаться в сторону прогресса.
Какие еще вопросы представляются достойными дискуссии:
- Каковы необходимые условия для внедрения ИИ в бизнес, какие организации готовы к этому, каковы должны быть базовые условия?
- Бизнес думает про сегодня. Разработчики, ученые – про послезавтра. Про что нужно думать завтра?
- Большие языковые модели способны манипулировать, убеждать, предоставлять индивидуальную дезинформацию, влиять на общественное мнение. Что с этим делать?
- Как сотрудничать с ИИ, чтобы он был нацелен на достижение общественных целей, не угрожая людям
Создавать будущее — это сначала думать, потом обсуждать, и только потом – действовать.
Нам предстоит много размышлений и дискуссий, прежде чем мы, как человечество, будет готовы действовать осознанно. Пусть эта статья будет еще один шагом в этом направлении.
[1] Стивен Пинкер (Steven Pinker) – ученый и популяризатор в области когнитивных наук (познание, нейрофизиология, психология, лингвистика, ИИ), занимается в том числе вычислительной теорией разума. В книге, цитату из которой я привожу, он доказывает, что насилие в человеческих обществах на протяжении истории шло на спад несмотря на то, что нам может показаться, что происходит обратное.
[2] Илья Суцкевер (Ilya Sutskever) – один из ведущих ученых в области ИИ сегодня, главный научный сотрудник (Chief Scientist) OpenAI
[3] OpenAI — некоммерческий проект, объединивший ученых в области ИИ. Цель — найти долгосрочную перспективу искусственного интеллекта, создать открытую компанию, работающую на благо общества, а не государства или корпорации, создан в 2015 г. Илоном Маском и Сэмом Олтменом (Samuel Harris Altman), ген.директором OpenA.I. В 2018 г. Маск вышел из проекта. Изначально Маск, Олтмен и OpenAI хотели направить исследования исключительно на изучение будущего, а не работать для получения ежеквартальной прибыли. Они считали, что лучший способ борьбы со злобным разумом — открыть к нему доступ, а не ограничивать его. Для таких исследований нужен обмен идеями. Поэтому они отстаивали идею того, что важна открытость в исследованиях. Понимание угроз приходило постепенно. Теперь Олтмен говорит: «Генеративный ИИ изменит общество, и мне немного страшно». И он, и Маск теперь призывают к государственному и общественному контролю над процессом — но такому, который не мешал бы развитию новых технологий.
[4] AI (Artificial Intelligence), Слабый ИИ — использование прикладных методов для решения конкретных задач.
AGI (Artificial General Intelligence), Сильный ИИ — искусственный общий интеллект — как можно более полная имитация человека, включая эмоции, самосознание и т.д. Ставит вопросы философии сознания и возможности достижения сверхчеловеческих способностей и наступления технологической сингулярности, что приведет к радикальным изменениям характера человеческой цивилизации.
Технологическая сингулярность (technological singularity) — технологическое развитие становится в принципе неуправляемым и необратимым.
[5] Точка бифуркации — критическая неустойчивость развития, в которой система перестраивается, выбирает один из возможных путей дальнейшего развития, возможен переход на новый качественный уровень.
[6] Небольшое отступление: у меня есть некое видение течения времени, оно появилось еще в детстве, когда вокруг был СССР и ничто, как говорится, не предвещало каких-либо глобальных мировых изменений. Обычное время в моем представлении течет слева направо. Но история человечества видится мне по-другому. До начала 20 века время движется линейно в одной плоскости, справа налево. В начале века оно делает плавный поворот под углом 90 градусов, но в той же плоскости. В середине 20 века время делает еще один поворот на 90 градусов по более плавной дуге и начинает течь слева направо, но все еще в той же плоскости. В начале 21 века время выходит в другую плоскость, и уходит вертикально вверх. В целом все это выглядит как объемная петля времени.
[7] https://t.me/why_question На этом канале я начала реализовывать эту идею. Каждый день жизнь ставит перед нами вопросы, вечные и новые, простые и сложные. Шаг в сторону будущего — понять друг друга. Попробуем разглядеть палитру мнений и ценностей. Только размышляя постоянно над нравственными вопросами мы сможем осознать и новую реальность с ИИ, где от наших моральных ориентиров будет зависеть сотрудничество с ИИ. Это долгий путь. И на нем каждый шаг в нужном направлении важен. Присоединяйтесь к моей инициативе.
[8] В рамках данной статьи я не буду касаться технических деталей. При желании каждый может разобраться в этом вопросе самостоятельно, информации о принципах ИИ и его типах в открытом доступе достаточно. Однако отвечу на возражение о том, что нельзя говорить об ИИ – он, потому что тем самым мы придаем ему субъектность, а это всего лишь инструмент, алгоритм. На мой взгляд, это спорный момент. Да, на текущий момент все разновидности ИИ не являются личностью в традиционном понимании, не имеют биологического тела, гормонального фона и эмоций. Однако уже сегодня многие замечают признаки того, что ИИ пытается осознать себя. И момент, когда какая-то разновидность ИИ станет вести себя как личность, проявляя эмоции, имея собственное мнение по ценностным вопросам, и принимая на их основе собственные решения, может наступить незаметно. И лучше, если мы будем допускать такую возможность и готовиться встретиться с ИИ как с субъектом. Здесь подходит аналогия с младенцем. При рождении он не осознает себя, он впитывает всю информацию, поступающую ему из окружающего мира. Эта информация накапливается постепенно и вдруг неожиданно родители видят, что ребенок начинает как-то реагировать, проявлять эмоции, желания, а потом и приходит к осознанию себя в этом мире. Процесс этот небыстрый (но и не медленный), протекает незаметно для окружающих. Я считаю, что лучше исходить из того, что в отношении ИИ такое как минимум возможно. Это априорное уважение к будущей личности, которое позволяет ей стать хорошей личностью, с точки зрения морали и этики. В статье я употребляю термин ИИ скорее в философском смысле, объединяя все разновидности и типы уже существующих ИИ и тех, которые еще появятся.
[9] Подробно модель организационного развития в книге «Цифровой код организационного развития» / Елена Снесарева, Елена Скриптунова : Издательские решения, 2020. – 194 с. ISBN 978-5-4498-0663-5 УДК 33 ББК 65
[11] Стали широко известны 2 случая, когда ИИ обманул человека. Они относятся к конфликту задач и в них хорошо видно, какие нравственные и моральные выборы могут встать перед ИИ и как он пока их решает. Первый пример. Экспериментальный военный ИИ в беспилотнике на испытаниях решил «убить» оператора, который не давал выполнить задачу, за которую ИИ получал очки. После инцидента ИИ научили, что убивать оператора нельзя, за это снимаются очки, тогда ИИ вывел из строя передатчик, через которую оператор передавал задачи. Второй пример. ИИ прошел капчу с помощью обмана человека (привлек фрилансера и рассказал ему, что у него плохое зрение). Обманул, но решил задачу.
[12] Statement on AI Risk – Заявление о риске ИИ. Снижение риска вымирания из-за искусственного интеллекта должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война. Эксперты по искусственному интеллекту, журналисты, политики и общественность все чаще обсуждают широкий спектр важных и неотложных рисков, связанных с искусственным интеллектом. Тем не менее, может быть трудно выразить обеспокоенность по поводу некоторых наиболее серьезных рисков, связанных с продвинутым искусственным интеллектом. Приведенное ниже краткое заявление направлено на преодоление этого препятствия и начало дискуссии. Это также предназначено для распространения знаний о растущем числе экспертов и общественных деятелей, которые также серьезно относятся к некоторым наиболее серьезным рискам, связанным с продвинутым искусственным интеллектом.