Ярослав Богданов: «Мир сегодня движется к техно-апокалипсису»
Глава китайской компании Baidu Робин Ли поделился своим негативным прогнозом для рынка искусственного интеллекта. По мнению бизнесмена, 99% от общего числа существующих сегодня стартапов в области генеративных нейросетей обречены на банкротство.
Аргументируя свою столь пессимистичную позицию, глава "китайской Google", как часто называют Baidu, напомнил о том, как в начале нулевых лопнул так называемый дотком-пузырь. Тогда обрушились акции многочисленных интернет-компаний, построивших свой бизнес на безосновательных финансовых потоках инвесторов. Сотни миллионов привлеченных от финансистов долларов ушли в никуда, так как большая часть существовавших проектов не имела под собой никакой практической базы.
О том, насколько вероятно повторение такого сценария сегодня, только уже с рынком искусственного интеллекта, «Южный федеральный» поговорил с президентом компании GDA Group, основателем Института современного международного права, Председателем Совета Фонда защиты прав инвесторов в иностранных государствах Ярославом Богдановым.
-Ярослав Евгеньевич, как по-Вашему, с чем связано такое негативное отношение главы Baidu к игрокам рынка искусственного интеллекта?
-Полагаю, что будучи человеком погруженным в процессы, происходящие на рынке, Робин Ли сформировал свое мнение исходя из конкретных условий. В частности, из того ажиотажа, который окружает разработки в области искусственного интеллекта. Менее опытный инвестор легко "ведется" на громкие обещания технокомпаний, вкладывая серьезные деньги в продукт, который может получиться в лучшем случае неконкурентоспособным, а в худшем случае может и не выйти совсем. Нейросети - это в первую очередь наука. Одной рекламы здесь мало. Нужно понимать, на какой стадии развития уже сейчас находится искусственный интеллект, чтобы выбирать из тысячи предложений то, которое действительно заслуживает внимания.
-То есть, рынок искусственного интеллекта сейчас пресыщен предложениями, из которых далеко не все представляют собой то, что действительно может стоить денег?
-Конечно. Несмотря на то, что первая волна сумасшедшего спроса на нейросети уже прошла, заработать на перспективной отрасли хотят многие - и производитель, и инвестор. Но с учетом того, насколько сегодня нейросети на основе ИИ интегрированы в нашу повседневную жизнь, удивить кого-то возможностями этого продукта сложно. Любой, даже не погруженный в технические детали пользователь, понимает, что такое нейросеть, что она дает, как она может упростить определенные процессы в работе, в жизни, в быту. Сегодня запросы все выше. А удовлетворить их становится все сложнее. Таким образом, неспособные давать гарантированно качественный, с высокой конкурентоспособностью продукт, сами отсеиваются с рынка, что дает ему возможность "охлаждения" и понижает риск превратиться в тот самый дотком-пузырь.
-Значит ли это, что в ближайшей перспективе вниманием инвесторов будут пользоваться только те предложения, которые будут основаны на крепкой научной базе?
-Уже сейчас это так. Но в перспективе, что также уже очевидно, на первый план выйдут те компании, которые предложат своему потенциальному инвестору гарантии безопасности своего продукта. Безопасность - вот тот фактор, который должен определять вектор развития рынка. Глобальная кибербезопасность отсутствует в принципе. Ни между собой, ни под эгидой ООН договориться в этом вопросе пока не получается. По причине политических разногласий, в том числе.
Касательно искусственного интеллекта, понятие безопасности трактуется как кому угодно. Есть какие-то национальные нормативы или требования безопасности, работающие внутри корпораций. Но пока нет единого международного стандарта, говорить о плавном стабильном развитии отрасли инновационных технологий нельзя. Яркий пример - как компания Apple не смогла завести на рынок Евросоюза свой новый iPhone 16 с функциями искусственного интеллекта. Правила, действующие в Европе в отношении кибербезопасности, противоречат тем, на основе которых был создан продукт внутри компании Apple. И это лишь первая ласточка. Подобные противоречия будут нарастать, как снежный ком, пока международное сообщество не договорится о том, по какому регламенту будет работать отрасль. Страдать будут и бизнес, и конечный пользователь.
-Таким образом, можно ли говорить о том, что рынок искусственного интеллекта может пострадать, но не из-за финансовой пресыщенности, а от отсутствия гарантий безопасности?
-Боюсь, что пострадает не только рынок искусственного интеллекта, но все человечество в целом. Мы с вами сегодня живем в мире, где воплощается то, что раньше мы могли встретить только в книгах писателей-фантастов. Здесь, по законам жанра, всегда должна случиться какая-то катастрофа, техно-апокалипсис. Ровно к этому мир и идет, не имея общего свода правил по работе с искусственным интеллектом.
Напомню, что сегодня деньги инвесторов идут уже на создание сверхразума, как это сделал, например, Сэм Альтман, который привлек миллиарды в свою компанию на разработку нейросети, способной мыслить, как человек. Никто не знает, о чем в любой момент может вдруг подумать этот сверхразум. Представим, что он воспримет человека, как угрозу. Он человека устранит. И никто в мире сегодня не может запретить создавать такую модель. Так же, как никто не может гарантировать, что этого не случится. Потому что инструмента такого нет. Я уверен, что только безопасность должна стоять во главе угла в сфере инновационных технологий.
-Какое здесь может быть решение?
-Только договариваться на международном уровне. Садиться за стол переговоров и работать с привлечением экспертного сообщества, властей, бизнеса. Работать всем вместе - без политических предпочтений и попыток захватить лидерство. Сейчас в Лондоне, в Вашингтоне, в Брюсселе принимаются какие-то соглашения, подписываются резолюции. Но там нет участия всех стран - и снова по причине политических интриг. Что означает, что все эти пакты изначально не всеобъемлющие и не рабочие.
Технологии, подобные искусственному интеллекту, обладают слишком масштабным потенциалом, чтобы позволять себе избирательный подход в вопросах обеспечения его безопасности. Как раз над организацией такого многостороннего диалога и работают специалисты возглавляемой мною GDA Group. Мы предлагаем платформу, на которой могут быть обсуждены, сформулированы и введены в действие те нормативы, которые дадут всему человечеству шанс на цифровое развитие без угрозы быть порабощенным или уничтоженным созданной в обычной попытке заработать нейросетью.