Человечеству грозит вымирание из-за искусственного интеллекта — как его остановить?

В очередной раз группа видных исследователей и экспертов в области искусственного интеллекта и технологических компаний предупредила, что нынешнее стремительное развитие искусственного интеллекта может обернуться катастрофой для человечества.

Опасности включают ядерные конфликты, болезни, дезинформацию и бесконтрольный искусственный интеллект, который не контролируется, и все это представляет прямую угрозу выживанию человечества. Проверять В чем проблема увеличения скрепок и какое отношение они имеют к искусственному интеллекту?

Но имейте в виду, что многие из этих предупреждений исходят от тех же людей, которые занимаются разработкой ИИ и управляют инструментами и программным обеспечением ИИ в своих компаниях.

Почему технологические компании и эксперты предупреждают об опасностях искусственного интеллекта?

30 мая 2023 года более 350 исследователей, разработчиков и инженеров ИИ опубликовали сводное заявление, предупреждающее об угрозе, которую ИИ представляет для человечества.

Смягчение угрозы вымирания человечества из-за ИИ должно стать глобальным приоритетом наряду с другими социальными рисками, такими как пандемии и ядерная война.

лиц, подписавших заявление Сейф.ай Генеральный директор OpenAI Сэм Альтман, генеральный директор Google DeepMind Демис Хассабис и генеральный директор Anthropic Дарио Амоди, а также лауреаты премии Тьюринга Джеффри Хинтон и Джошуа Бенжио (хотя Ян Ликун, который также получил ту же награду, не подписался). Список примерно тот, кто есть кто в разработке ИИ — люди, возглавляющие стартапы ИИ, — но здесь они собрались вместе, предупреждая, что ИИ может означать катастрофу для человечества.

Это краткое заявление с изложением угроз, в котором конкретно упоминаются две основные области, которые могут угрожать миру, каким мы его знаем: ядерная война и глобальные проблемы со здоровьем. В то время как угроза ядерного конфликта вызывает беспокойство, угроза пандемии является более ощутимой угрозой для большинства людей.

Однако не только глобальная пандемия может вызвать проблемы со здоровьем, связанные с ИИ. сообщил Газета Гардиан Есть много других проблем со здоровьем, связанных с ИИ, которые могут затронуть людей, если они не будут исследованы до широкого использования. Один из примеров касался использования оксиметров с искусственным интеллектом, которые «переоценивали уровень кислорода в крови у темнокожих пациентов, неправильно справляясь с их гипоксией».

Более того, это не первый раз, когда группа технологических лидеров призывает к паузе или серьезной переоценке развития ИИ. В марте 2023 года Илон Маск и другие исследователи ИИ подписали аналогичный призыв к действию с просьбой остановить разработку ИИ до тех пор, пока не будут приняты дополнительные правила, которые помогут направить процесс. Проверять Учится ли ChatGPT на разговорах пользователей?

Чем опасен искусственный интеллект?

Большинство рисков, связанных с ИИ, по крайней мере в этом контексте, связаны с развитием безудержной технологии ИИ, которая превосходит возможности людей, что в конечном итоге приводит в действие ее создателя и уничтожает жизнь, какой мы ее знаем. Это история, которая бесчисленное количество раз освещалась в научно-фантастических книгах, но реальность теперь ближе, чем мы думаем.

Возможности больших языковых моделей (которые поддерживают такие инструменты, как ChatGPT) растут в геометрической прогрессии. Однако у таких инструментов, как ChatGPT, есть много проблем, таких как врожденная предвзятость, проблемы с конфиденциальностью и галлюцинации ИИ, не говоря уже о их способности взломать систему, чтобы работать за пределами запрограммированных условий.

Исследователи ИИ опасаются, что с более крупными языковыми моделями и большим количеством точек данных для контакта, а также с доступом в Интернет и более глубоким пониманием текущих событий, что однажды, по словам генерального директора OpenAI, «все пойдет не так».

Как правительства регулируют развитие искусственного интеллекта, чтобы предотвратить риски?

Регулирование искусственного интеллекта является ключом к предотвращению рисков. В начале мая 2023 года Сэм Альтман призвал к усилению регулирования ИИ, заявив, что «регулирующее вмешательство со стороны правительств будет иметь решающее значение для снижения рисков, связанных со все более мощными моделями».

Впоследствии ЕС объявил о принятии Закона об искусственном интеллекте — нормативном акте, призванном обеспечить гораздо более прочную основу для развития ИИ в ЕС (при этом многие постановления распространяются на другие юрисдикции). Альтманн сначала пригрозил вывести OpenAI из Европейского Союза, но затем отказался от своей угрозы и согласился, чтобы компания придерживалась ранее запрошенного им регулирования ИИ.

Несмотря на это, ясно, что регулирование разработки и использования искусственного интеллекта имеет важное значение. Проверять Превратится ли ChatGPT в угрозу кибербезопасности? Вот на что следует обратить внимание.

Уничтожит ли искусственный интеллект человечество?

Поскольку большая часть обсуждения этой темы основана на предположениях о силе будущих версий ИИ, возникают вопросы о долговечности и силе любой организации ИИ. Как лучше всего организовать отрасль, которая и без того развивается очень быстро и каждый день совершает прорывы в развитии?

Более того, до сих пор существует некоторый скептицизм по поводу возможностей ИИ в целом и того, чем он закончится. В то время как все, кто опасается худшего, указывают на то, что ИИ стал человеком, другие указывают на тот факт, что текущие версии ИИ не могут дать ответы даже на основные вычислительные вопросы и что до самоуправляемых автомобилей еще далеко.

Трудно не согласиться со всеми, кто смотрит в будущее. Многие из тех, кто громко кричит о проблемах, которые может вызвать ИИ, сидят за рулем и смотрят, куда мы можем двигаться. Если они призывают к регулированию искусственного интеллекта, чтобы защитить нас от апокалиптического будущего, возможно, пришло время сделать шаг. Вы можете просмотреть сейчас Несколько причин не доверять ИИ слепо.

Перейти к верхней кнопке