Компания Илона Маска xAI выпустила новую версию чат-бота Grok, которая способна генерировать изображения с фотографической четкостью. Сразу после этого на Маска обрушилась волна возмущения.
Поводом послужили два основных фактора - слишком реалистичная графика и авторские права. Grok обвинили в том, что он использует всем известных персонажей - от героев мультфильмов до медийных лиц, зачастую “помещая” их в несвойственные сюжеты. Например, Микки Маус с пистолетами, стоящий на фоне кровавой расправы. Это, настаивают критики, искажает реальность.
Кроме того, некоторые из сгенерированных Grok изображений содержат картинки, защищенные авторским правом. Илона Маска обвинили в том, что он отбросил юридические и этические нормы при создании новой версии ИИ от xAI.
Любые нападки Илон Маск отверг, назвав их политическими интригами против своей соцсети X. В анонсе новой версии чат-бота Илон Маск заявил о том, что “Grok - самый забавный искусственный интеллект в мире”. Однако, критики не нашли ничего забавного в том, что поток дезинформации, генерируемой при помощи ИИ, стал еще качественнее и эффектнее.
Основатель GDA Group Ярослав Богданов считает, что Илон Маск своим новым продуктом привлек внимание к наиболее острым вопросам в сфере искусственного интеллекта.
-Напомню, что весной 2023 года Илон Маск был в числе тех, кто подписался под открытым письмом с призывом остановить машинное обучение систем ИИ до того момента, пока не будут разработаны правила работы с генеративными нейросетями. Это письмо было проигнорировано. Теперь, когда Маск продолжает свои научные изыскания, как поступают все, к кому полтора года назад обращались визионеры кибериндустрии, он подвергается критике. Нужно смотреть шире - проблема не в Илоне Маске, не в Grok и не в его контенте. Проблема - в отсутствии глобальной кибербезопасности, что и стало первопричиной заполонивших Сеть фейков. По факту, критикам Илона Маска нечего ему предъявить. Он не нарушил никаких правил, потому что их просто не существует, - сказал Ярослав Богданов.
Эксперт назвал искусственный интеллект обоюдоострым мечом. С одной стороны, эта технология максимально полезна - от автоматизации процессов до генерации творческих идей. С другой стороны, это огромные риски - от роста киберпреступности до полной атрофии умственной деятельности человека.
-Человек, заходя на неизведанную территорию, коей и является сфера искусственного интеллекта с научной точки зрения, должен создать ландшафт безопасности своей деятельности. По аналогии с протоколами, которыми руководствуются работники опасных производств, где есть четкие алгоритмы поведения. Бесконтрольное развитие генеративных нейросетей - это бумеранг, который однажды грозит вернуться к человеку с последствиями, на фоне которых дезинформация покажется детской шалостью, - предупредил Ярослав Богданов.
Читать на "Южный федеральный"