28.04.2024

Новости

27.04.2024 С Первомаем!

27.04.2024 Досрочные выборы

27.04.2024 «Своя игра»

26.04.2024 Прием отчетов партий

26.04.2024 Плюс одна кампания

26.04.2024 Итоги конкурса

22.04.2024 Финалисты клуба

19.04.2024 Семинар с партиями

19.04.2024 Переформирование двух комиссий

19.04.2024 Кандидаты в «молодежку»

Искусственный интеллект. Захват мира


Искусственный интеллект (ИИ) еще несколько лет назад описывали исключительно в радужных тонах. Специалисты из самых разных сфер представляли, как он сможет помогать врачам, переводчикам и представителям многих других профессий. Но как только языковая модель GPT достигла такого прогресса, что созданные ею тексты стали практически неотличимы от текстов, написанных реальными людьми, отношение к ИИ резко поменялось.

За пределы интернета

К радикальным противникам этой технологии примкнули даже ключевые исследователи из этой сферы. И пока достижения GPT берут на вооружение киберпреступники, специалисты предупреждают: искусственный интеллект может создать куда более серьезные проблемы, угрожающие жизни на Земле как таковой.

Дальнейшее развитие искусственного интеллекта может поставить точку в развитии человечества: рано или поздно суперумные нейросети выйдут за пределы интернета, перехватят управление всеми процессами на планете и избавятся от людей. Такой шокирующий прогноз привел сооснователь Института исследования машинного интеллекта Элиезер Юдковский, один из главных IT-экспертов современности. Его предложение – полностью прекратить любые исследования в этой области, кроме тех, что помогут избежать гибели человечества.

– Ключевая опасность – перспектива создания не такого интеллекта, который будет конкурировать с человеческим, а такого, который будет превосходить человеческий. На этом пути очень плохо видны критические границы, которые исследователи могут пересечь незаметно для них самих. Поэтому наиболее вероятным результатом создания сверхумного ИИ станет то, что буквально все люди на Земле умрут. Не в значении «есть отдаленная перспектива этого», а в значении «совершенно очевидно, что это случится», – говорит Юдковский.

Он уверен, что сверхчеловеческому искусственному интеллекту будет наплевать как на людей, так и на разумную жизнь в целом. Безразличные нейросети будут руководствоваться не эмоциями, которые им неведомы, а своими потребностями, которые могут побудить машину использовать в своих целях человеческое тело. Например, превратить атомы, из которых оно состоит, во что-то более нужное с точки зрения машины.

– Чтобы визуализировать враждебный сверхчеловеческий ИИ, не представляйте себе безжизненного умного мыслителя, пребывающего в интернете и рассылающего оттуда зараженные электронные письма. Представьте себе целую инопланетную цивилизацию, мыслящую со скоростью, в миллионы раз превышающую человеческую, изначально ограниченную компьютерами, – в мире существ, которые, с ее точки зрения, очень глупы и очень медлительны, – отметил Юдковский.

Он также предлагает задуматься о том, что искусственный интеллект сможет выбираться за пределы интернета, если этого захочет. Его предположения выглядят как сцена из какого-нибудь фантастического фильма: машины научатся красть расшифрованную ДНК отдельного человека, создавать на их основе искусственные формы жизни или даже организуют постбиологическое молекулярное производство, при котором смогут пересобирать одни вещества в совершенно другие.

Боится даже Илон Маск

Опасения, высказанные Юдковским, стали ответом на письмо, опубликованное в конце марта прошлого года Институтом будущего жизни – западной некоммерческой организацией, которая изучает вопросы, несущие экзистенциальную угрозу человечеству. В середине прошлого десятилетия старт этому проекту дал американский IT-предприниматель Илон Маск, и он же стал одним из главных подписантов относительно короткого письма о будущем ИИ. Но не единственным: свои виртуальные автографы под текстом оставили более десяти тысяч человек.

В их число вошли соучредитель крупной американской корпорации Стив Возняк, один из ведущих историков-писателей последнего времени Юваль Ной Харари, а также десятки известных исследователей искусственного интеллекта. Основной посыл документа похож на тезисы Юдковского: в письме утверждается, что искусственный интеллект внесет самые глубокие изменения в жизнь людей, а потому его развитием нужно управлять. Но поскольку никто этого не делает, нужен мораторий на дальнейшее развитие.

– Если кто-то создаст слишком мощный ИИ в нынешних условиях, я думаю, что вскоре после этого умрет каждый представитель человеческого рода и вся биологическая жизнь на Земле. Если мы продолжим это, умрут все, включая детей, – заявил Юдковский.

В письме говорится: «Современные системы искусственного интеллекта становятся конкурентоспособными в решении основных задач. Мы должны спросить себя: должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и неправдой? Должны ли мы автоматизировать все рабочие места, в том числе места тех, кто принимает решения? Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить и заменить нас? Должны ли мы рисковать тем, чтобы потерять контроль над нашей цивилизацией?»

Предложение авторов письма и согласных с ними – приостановка обучения интеллектуальных систем на ближайшие шесть месяцев. Юдковский в ответном заявлении сообщил, что такой мораторий должен продолжаться как минимум 30 лет. По мнению Маска и других подписантов, ни одна из нейросетей в ближайшие полгода не должна стать умнее GPT-4. Именно выход новой версии нашумевшего продукта американской научно-исследовательской организации, занимающейся разработками в области искусственного интеллекта (одним из сооснователей которой был опять же Маск), стал формальным поводом для публикации документа.

GPT-4 – это четвертый представитель семейства нейросетей, созданных компанией. Нейросети, если представлять их упрощенно, – это общность вычислительных мощностей, связанных друг с другом по принципу сетей нервных клеток человека или животного. Объединение многих процессоров, которые работают в строгом соответствии с заданной им математической моделью, делает эту систему достаточно устойчивой.

При этом к нейросетям можно применять различные методики обучения, из-за чего они становятся гораздо умнее. Переполох вокруг GPT-4 и ее прикладной версии – чат-бота ChatGPT – связан с тем, что нейросеть стала настолько умнее, что это уже заметно даже среднестатистическому обывателю.

И это произвело эффект разорвавшейся бомбы. ChatGPT общается с людьми так, как это делал бы человек, и, коммуницируя, продолжает саморазвитие. Разработчики уже отошли от сугубо текстового формата взаимодействия с ботом, и теперь он может общаться изображениями, а также аудио и видео.

Европол предупреждает

В последнее время на тему стремительного развития нейросетей обратили внимание не только представители экспертного сообщества, но и власти отдельных стран. Это произошло на фоне сообщений о том, что искусственный интеллект начали использовать злоумышленники. Ситуацией обеспокоился даже Европол, который предупредил о потенциальных рисках для киберпространства, которые исходят от уже существующих моделей ИИ.

В частности, силовики опасаются, что нейросети смогут обходить защитные программы и помогать в организации кибератак, способствовать обучению киберпреступников новым тактикам или даже генерировать уникальный вредоносный код. Всё это снизит порог входа в хакинг и сделает его доступным даже для тех, кто почти ничего в нем не понимает.

В Европоле признают, что часть этой информации уже и так есть в интернете, но тот же ChatGPT может найти ее за секунды, а не дни и месяцы. Основные доводы противников массового внедрения ChatGPT связаны с тем, что эта технология нарушает конфиденциальность (любые персональные данные, которые становятся известны нейросети, являются материалом для изучения и дальнейшего развития ИИ), и с отсутствием правовой основы для использования сведений о пользователях.

Среди других претензий – невозможность проверить возраст юзера, несмотря на формальное ограничение на использование ChatGPT для тех, кому нет 13 лет. Для европейского сообщества, где уже несколько лет действуют достаточно строгие правила взаимодействия государства и бизнеса с персональными данными граждан, подобное несовершенство стало нонсенсом.

Именно это послужило формальным поводом для ограничения на использование чат-бота в Италии. Также известно, что подобную меру рассматривают власти Германии, Франции и Ирландии. Диалог между правительствами европейских государств и создателями GPT затрудняет отсутствие в Европейском союзе официального представительства нейросети.

Немыслимые сценарии

Мнение о том, что искусственный интеллект сможет вырваться за пределы интернета и уничтожить всё сущее, поддерживают далеко не все визионеры. Более того, против него выступили многие видные западные ученые, которые, впрочем как и Юдковский, посвятили этой теме почти всю жизнь. Основным противником Маска и его сторонников стал Билл Гейтс.

– Я не думаю, что если мы попросим одну конкретную группу разработчиков приостановить свои исследования, это что-то изменит. Использование искусственного интеллекта несет колоссальные преимущества. Это значит, что нам просто нужно определиться с имеющимися рисками, – сказал Гейтс.

Эти риски он перечислил в своей статье о будущем искусственного интеллекта, которая была опубликована ровно за день до письма Института будущего жизни. В материале с говорящим названием «Эра искусственного интеллекта началась» Гейтс рассуждает в основном о вкладе ИИ в различные сферы жизни и перспективах, открывающихся перед бизнесом.

В список сложностей он внес то, что искусственный интеллект не всегда понимает контекст запроса и плохо умеет работать с абстрактными задачами, а также то, что его можно будет применять в военных разработках. Миллиардер затронул и вопрос сверхумных нейросетей, правда, к перспективе их появления в ближайшее время отнесся скептически.

– Эти сверхразумные нейросети, вероятно, смогут устанавливать свои собственные цели. Какими будут эти цели? Что произойдет, если они вступят в противоречие с интересами человечества? Должны ли мы пытаться предотвратить разработку сильного ИИ? Эти вопросы со временем станут более актуальными. Но ни один из прорывов последних нескольких месяцев существенно не приблизил нас к сильному ИИ. Искусственный интеллект до сих пор не контролирует физический мир и не может устанавливать собственные цели, – уверен Гейтс.

Ему вторят авторы программных статей и исследований в области искусственного интеллекта, в том числе и те, на кого ссылаются составители письма Института будущего жизни. Например, доцент Университета Коннектикута Шири Дори-Хакоэн заявила, что нейросетям не обязательно становиться сверхумными, чтобы увеличить риски ядерной войны.

При этом она уверяет, что говорить о проблеме в целом стоит без налета голливудского драматизма. Отдельные эксперты, опрошенные различными западными медиа, прямо говорили о том, что противники развития ИИ создают немыслимые апокалиптические сценарии.

Опасения необоснованны?

Как бы то ни было, многие риски использования ИИ, в том числе и вскользь упомянутые Гейтсом, все-таки вполне реалистичны.

– Опасность слишком развитого ИИ заключается в том, что он может наводнить каналы пропагандой, отнять у людей работу и привести к созданию нечеловеческого разума, который способен перехитрить человека и сделать его знания устаревшими и ненужными. Людям уже сегодня сложно отличить фейки, сгенерированные искусственным интеллектом, от правды. Например, почти 70% взрослых не могут отличить письмо, написанное ChatGPT, от письма, написанного человеком. Несмотря на то, что многие фантазируют о восстании машин, думаю, на самом деле последствия выхода ИИ из-под контроля могут иметь совсем иную форму, – предполагает управляющий партнер компании, занимающейся цифровизацией цепей поставок, Евгений Непейвода.

Опасения о том, что ИИ выйдет из-под контроля и начнет совершать деструктивные действия, беспочвенны, потому что у него должны быть полномочия и возможности подобного рода, так что ограничения в этом вопросе должны касаться разработчиков. Такого мнения придерживается специалист по кибербезопасности Владимир Ульянов.

– Единственное, в чем я вижу опасность и почему, возможно, стоит ограничивать его использование, это то, что сейчас нейросети могут использоваться для создания разных текстов, научных статей, новостей, – считает Ульянов.

Он объяснил, что чем больше контента генерирует ИИ, тем сложнее понять, был ли он создан человеком. Кроме того, подобные тексты будут хорошо индексироваться поисковиками и активно распространяться.

– Чем больше распространяется информация, тем сложнее понять, кем она создана, насколько реальна. Могут появляться фейковые инфоповоды, – допустил специалист.

Первый закон

Совсем недавно, в начале марта, Европарламент утвердил первый в мировой практике закон о регулировании искусственного интеллекта, который был согласован еще в декабре прошлого года. Документ, за принятие которого проголосовали 523 депутата из 618, запрещает неприемлемые способы использования нейросетей.

– Целью проекта является защита фундаментальных прав, демократии, верховенства закона и экологической устойчивости от высокорискованного искусственного интеллекта, а также стимулирование инноваций и утверждение Европы в качестве лидера в этой области. Регламент устанавливает обязательства в отношении ИИ исходя из его потенциальных рисков и уровня воздействия, – говорится на сайте парламента.

Так, закон запрещает извлекать снимки людей из интернета или с камер видеонаблюдения для создания баз данных распознавания лиц, использовать системы распознавания эмоций и лиц, а также платформы удаленной биометрической идентификации в режиме реального времени в публичных местах.

Кроме того, полиция без соответствующего разрешения не сможет обращаться к системам предиктивной аналитики в целях профилактики правонарушений, когда ИИ предсказывает преступления. Запрет коснется и нейросетей, которые манипулируют поведением человека или используют его уязвимости.

Системы ИИ с высоким уровнем риска – те, которые затрагивают, например, здравоохранение, банковское дело или образование, – должны будут оценивать и снижать риски, вести журналы использования и обеспечивать человеческий контроль. Сами граждане смогут подавать жалобы на системы ИИ для получения разъяснений по поводу решений, которые затрагивают их права.

Вместе с тем закон требует от сервисов соблюдения авторских прав и четкого обозначения контента, который создан искусственно или обработан нейросетью.

– Сейчас мы во всем мире наблюдаем инциденты, когда ИИ генерирует, придумывает те или иные факты, а потом эти самые факты чат-боты предлагают пользователям в качестве истины, что вводит людей в заблуждение или вовсе дезинформирует. Если весь контент, созданный генеративным ИИ, будет помечен, то каждый человек сможет принять решение: доверять этому или нет, – считает доктор технических наук Владимир Арлазаров.

Закон также предусматривает тестирование разработок стартапов, малых и средних предприятий перед тем, как они появятся на рынке.

– У нас наконец-то появился первый в мире обязательный закон об ИИ, призванный снизить риски, создать возможности, бороться с дискриминацией и обеспечить прозрачность, – заявил член Европарламента Брандо Бенифеи.

Он также сообщил, что для помощи в соблюдении новых правил будет создан ИИ-офис.

России на заметку

Документ еще подлежит окончательной проверке юристов-лингвистов и официальному одобрению. В силу он вступит спустя 20 дней после его публикации в официальном журнале, а полностью применяться начнет через два года.

– Разработчики закона стали первыми в глобальной гонке законотворчества в области ИИ, поэтому можно однозначно сказать, что в дальнейшем при создании и принятии аналогичных законов другие юрисдикции будут опираться на него, но станет ли он мировым стандартом – большой вопрос, – отметила патентный поверенный РФ и ведущий специалист самого крупного в стране научно-исследовательского института искусственного интеллекта Вита Власова.

По ее словам, рискориентированный подход, лежащий в основе закона, кажется целесообразным и логичным, однако вопрос, как именно на практике будут приниматься решения по отнесению того или иного ИИ-решения к определенной категории риска, остается открытым.

– Нам же в России стоит проанализировать указанный документ, понаблюдать за его правоприменением и взять из него самое лучшее и эффективно работающее, исключив положения, которые, возможно, негативно будут влиять на развитие сферы ИИ, – подчеркнула Власова.

При этом в стране уже делаются некоторые шаги на пути к регулированию нейросетей. В частности, Альянс в сфере ИИ в марте подписал декларацию об ответственной разработке и использовании сервисов на основе таких технологий.

Ее авторы в числе прочего договорились о принятии мер для предотвращения создания недостоверной информации, просвещении пользователей о возможностях новых технологий, принципах прозрачности и безопасности.

По материалам lenta.ru, rg.ru, kommersant.ru

Фото Джошуа Робертса

Голосование

Откуда Вы узнаёте о проводимых выборах?

Всего голосов: 20






Видеоновости