Искусственный интеллект и Джордж Сорос

Миллиардер, который в свободное от управления многомиллиардными хедж-фондами занимается продвижением либеральных ценностей в мировом масштабе через свой Фонд “Открытое общество”, написал очередную статью “Сможет ли демократия пережить поликризис?”, с переводом которой на русский язык можно ознакомиться здесь.

Статья на сайте Project Syndicate появилась за неделю до того, как 92-хлетний Джордж Сорос объявил о передаче своей “бизнес-филантропической” империи 37-летнему сыну Алексу, так что рецензируемый материал можно считать “политическим завещанием” злого гения человечества последнего полувека.

Главными проблемами демократии Джордж Сорос объявил Искусственный Интеллект (ИИ), климатические изменения и Россию. Но “самой-самой” важной назвал ИИ: “Искусственный интеллект (ИИ) потряс мир, когда компания Microsoft открыла для публики бесплатный доступ к программе ChatGPT через аффилированную компанию OpenAI. Это произошло в ноябре 2022 года. ChatGPT оказался экзистенциальной угрозой для бизнес-модели компании Google, которая все силы бросила на скорейшее создание конкурирующего продукта”.

СПРАВКА

Главное отличие ИИ ChatGPT от человеческого интеллекта заключается в

том, что человеческий интеллект формировался в результате биологической эволюции, по итогам которой человек обладает развитой низкоскоростной языковой коммуникацией, кодирующей ограниченные объемы данных.

В основе интеллекта ChatGPT – искусственный интеллектуальный агент, обладающий развитыми возможностями цифровой коммуникации, которая характеризуется передачей колоссальных объемов данных с недостижимой и, даже, непостижимой для людей скоростью.

Следующим этапом развития ИИ-систем типа ChatGPT может стать их “индивидуализация”.

Нынешние представления ChatGPT о мире строятся на основе усреднения содержащихся в Интернете представлений всех людей.

«Индивидуализированный ChatGPT», будет иметь представления о мире, полученные в результате его обучения на подмножестве источников Интернета. Каждое такое подмножество будет отражать видение мира людьми с определенным мировоззрением.

Например, «ChatGPT – демократ» будет давать другие ответы, чем «ChatGPT – республиканец».

Возможны будут также “ChatGPT – физики” и “ChatGPT – лирики”, “ChatGPT – BLM” и “ChatGPT – “соросята”, “ChatGPT – фитнес-блогеры” и т.д.

Далее в статье Сорос обращается к авторитету несомненного гуру ИИ: “Вскоре после этого Джеффри Хинтон (его принято считать крёстным отцом ИИ) уволился из Google, чтобы у него появилась возможность открыто рассказать о рисках, исходящих от этой новой технологии. Пересмотрев своё прежнее мнение, он стал придерживаться очень мрачных взглядов на ИИ. Он заявил, что тот может уничтожить нашу цивилизацию”.

Здесь необходимо сделать отступление и обратиться к фигуре 75-летнего Джеффри Хинтона – британско-канадского ученого в области когнитивной психологии и информатики. Он считается “крестным отцом ИИ”, – его многолетние исследования лежат в основе современных ИИ-систем, таким как чат-бот Chat GPT. Хинтона цитируют чаще, чем трех идущих за ним исследователей ИИ вместе взятых.

СПРАВКА

Джеффри Хинтон родился в Британии, где закончил Кембриджский университет. С 1972 года исследовал нейросети и искусственный интеллект в университетах Британии, США и Канады.

В 2012 году Хинтон с двумя студентами в Торонто создал нейросеть, способную идентифицировать некоторые объекты, проанализировав фотографии и различные цифровые данные.

Google купила их стартап за $44 млн.

В 2018 году Хинтон получил премию Тьюринга – компьютерный эквивалент Нобелевской премии.

После ухода из Google Хинтон заявил о готовности открыто говорить об опасностях, связанных с развитием ИИ.

Хинтон не единственный из топ-специалистов, выражающих опасения скоростью развития ИИ-технологий. Недавно предприниматель Илон Маск и сооснователь Apple Стив Возняк подписали открытое письмо о целом ряде рисков, которые несет внедрение ИИ: от распространения дезинформации до лишения людей работы и потери контроля над цивилизацией [см. ПРИЛОЖЕНИЕ]

В интервью британской ВВС, Хинтон заявил: “Уже сейчас мы видим, как такие системы, как GPT-4, затмевают человека по общей эрудиции, причем с большим перевесом. В том, что касается логического осмысления, она еще отстает, но на простые рассуждения она уже способна (…) А учитывая нынешнюю скорость прогресса, мы ожидаем, что усовершенствование произойдет довольно быстро. И нас это должно беспокоить”.

Ранее в интервью The New York Times ДжеффриХинтон упоминал опасность того, что ИИ-технологии попадут в руки злоумышленников, которые с их помощью будут делать “плохие вещи”.

Отдельную тревогу Хинтона вызывает способность компьютерных систем учиться намного быстрее, нежели люди.

ЦИТАТА “Мы являемся биологическими системами, а здесь речь идет о цифровых. И огромная разница заключается в том, что с цифровыми системами у вас может быть множество копий с одними и теми же исходными составляющими. Все эти копии могут учиться отдельно друг от друга, а потом мгновенно обмениваться новыми знаниями (…) Представьте, если бы каждый из 10 тыс. людей узнавал что-то новое, и тут же все 10 тыс. автоматически получали это знание. Вот почему эти чат-боты могут знать намного больше, чем отдельно взятый человек”.

Полностью с интервью Джеффри Хинтона ВВС можно ознакомиться по ссылке https://www.bbc.com/russian/news-65458210

Сорос приводит мысль о том, что скорость и особенности развития ИИ-систем произвели большое впечатление на Хинтона. “Возможно, всё, что происходит в этих системах, намного лучше, чем то, что происходит в мозгу человека”, — заявил он. По его мнению, по мере повышения мощности этих систем они становятся более опасными. В частности, он предостерёг против создания полностью автономных оружейных систем, которых он называет роботами-убийцами.

Мы вышли на совершенно неизвестную территорию. Мы способны создавать машины, которые сильнее нас, но мы сохраняем контроль над ними. А что, если мы создадим машины, которые окажутся умнее нас? ИИ потребуется от пяти до 20 лет, чтобы обогнать разум человека… Вскоре он осознает, что будет лучше достигать своих целей, если станет ещё более мощным”.

Сорос утверждает, что “слова Хинтона произвели на меня большое впечатление”, аИИ напомнил ему стихотворение Гёте “Ученик чародея”. “Ученик изучает волшебство, но не в полной мере понимает, чему его учит чародей. Когда тот приказывает ему помыть пол, ученик использует заклинание для метлы. Она ему подчиняется, но ученик не может заставить метлу прекратить выливать вёдра с водой на пол, и в доме начинается потоп”.

Отметим, что уже давно и плотно общающийся с вечностью “серийный филантроп” некорректно излагает содержание произведения. Дело в том, что ученик чародея просто забыл заклинание, которое останавливает работу метлы.

Со стихотворением Гете в русском переводе Пастернака можно ознакомиться по ссылке https://lit-ra.su/iogann-gyote/uchenik-charodeya/

Правда, вместо “метлы” здесь фигурирует “веник”, но это – нюансы перевода.

Далее Джордж Сорос пишет: “Я вырос до того, как был изобретён ИИ. Благодаря этому, я сильно верю в реальность. Ещё в сравнительно раннем возрасте я осознал, насколько трудно понять мир, в котором я родился, и поэтому я обращался к реальности, чтобы найти в ней моральное руководство”.

NB! Использование термина “реальность” не дав ему определения и не уточнив – об объективной либо субъективной реальности идет речь – четкий признак манипуляции.

По следующему абзацу можно предположить, что Сорос все же склоняется к субъективной реальности:“В мире, в котором мы живём, мы, люди, являемся одновременно и участниками, и наблюдателями. В качестве участников мы хотим изменить мир в нашу пользу; в качестве наблюдателей мы хотим понять реальность такой, какая она есть. Эти две цели пересекаются между собой. Я считаю это важным выводом, позволяющим мне различать правильное и ошибочное”.

NB! Важно уточнить – “субъектное правильное” и “субъективно ошибочное”.

Далее патриарх “либерального гуманизма” утверждает: “ИИ разрушил эту простую схему, потому что он не имеет никакого отношения к реальности. ИИ создаёт собственную реальность, а когда эта искусственная реальность перестаёт соответствовать реальному миру (что происходит достаточно часто), это пренебрежительно игнорируют, называя “галлюцинациями”.

NB! Вот и манипуляция: ИИ создает свою “субъективную реальность”, которую Сорос почему-то именует “искусственной”, но в данном случае термин “реальность” он употребляет в смысле “объективной реальности”.

Начнем с того, что в рамках современных либеральных социально-психологических теорий, в т.ч. – активно поддерживаемых соросовским Фондом “Открытое общество”, “объективная реальность”, как таковая, отсутствует.

Так, последователи Сороса считают “галлюцинацией” точку зрения, что гендеров всего два!

Сам Сорос указывает: “Я почти инстинктивно выступаю против ИИ, и всем сердцем согласен с теми экспертами, которые доказывают, что ИИ нужно регулировать”.

А дальше “филантроп” оседлал своего любимого конька – тему “открытого и закрытого общества” и в очередной раз объяснил различия: “в открытом обществе роль государства — защищать свободу человека, а в закрытом обществе роль человека — служить интересам правителей”.

NB! “В реальности же” все иначе – в “открытом обществе” власть ограничивает одни свободы ради других [нередко – “традиционные” ради “нетрадиционных”], в то время как в “закрытом обществе” власть ограничивает свободы в обмен на некие социально-экономические гарантии.

Сорос предупреждает: “ИИ помогает закрытым обществам и создаёт смертельную угрозу для открытых обществ. Причина в том, что ИИ особенно хорош в создании инструментов контроля, помогающих закрытым обществам следить за своими подданными.

Именно поэтому я инстинктивно против ИИ, но не знаю, как его можно остановить. Сегодня этого, впрочем, вообще никто не знает, однако большинство из тех, кто разрабатывал ИИ, признают необходимость его регулирования (…)”

ПРИЛОЖЕНИЕ

Глава SpaceX, Tesla и Twitter Илон Маск, сооснователь Apple Стив Возняк и более 1000 экспертов и руководителей отрасли по развитию искусственного интеллекта подписали открытое письмо с призывом приостановить разработку продвинутого ИИ до тех пор, пока не будут созданы, внедрены и проверены независимыми экспертами общие протоколы безопасности.

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски — управляемыми», — говорится в документе, разработанном Институтом будущего жизни (Future of Life Institute).

Письмо призывает все ИИ-лаборатории немедленно приостановить как минимум на шесть месяцев обучение систем искусственного интеллекта более мощных, чем новая языковая модель GPT-4 от OpenAI. Если же такую паузу нельзя взять быстро, то «правительства должны вмешаться и ввести мораторий», говорится в письме.

Дата публикации 27.06.2023

Список источников

Войти в личный кабинет