Причины, по которым проблемы безопасности для генеративного ИИ ухудшаются

За последние несколько лет искусственный интеллект значительно продвинулся вперед. Сложные языковые модели могут составлять целые романы, кодировать простые веб-сайты, анализировать математические задачи и даже давать медицинские советы.

Хотя генеративный ИИ впечатляет и помогает во многих областях, он также представляет угрозу безопасности. Некоторые люди используют чат-ботов для списывания на экзаменах, а другие используют их для киберпреступлений. Вот причины, по которым эти проблемы сохраняются не только несмотря на достижения в области ИИ, но и благодаря ему. Проверять Человечеству грозит вымирание из-за искусственного интеллекта — как его остановить?

1. Чат-боты AI с открытым исходным кодом обнаруживают внутренние коды

Все больше компаний, занимающихся ИИ, предоставляют модели с открытым исходным кодом. Она публично делится своими языковыми моделями, а не держит их закрытыми или частными. Возьмите Мету в качестве примера. В отличие от Google, Microsoft и OpenAI, он позволяет миллионам пользователей получать доступ к своей языковой модели. ЛАМА.

Хотя открытый исходный код может способствовать развитию искусственного интеллекта, он также сопряжен с риском. У OpenAI уже есть проблемы с управлением ChatGPT, его чат-ботом, так что представьте, что мошенники могут сделать с бесплатными формами. Они будут иметь полный контроль над этими проектами.

Даже если Meta внезапно откажется от своей языковой модели, десятки других лабораторий искусственного интеллекта уже опубликовали свой код публично. Давайте посмотрим на HuggingChat. Поскольку разработчик HuggingFace гордится своей прозрачностью, он публично отображает наборы данных, языковую модель и предыдущие версии.

2. Заявления о побеге из тюрьмы для подделки форм LLM

Искусственный интеллект по своей сути аморален. Он не понимает, что правильно, а что нет — даже продвинутые системы следуют инструкциям по обучению, наложенным ограничениям и наборам данных. Она просто распознает закономерности.

Для борьбы с незаконными действиями разработчики контролируют, к каким функциям и возможностям можно получить доступ, устанавливая ограничения. Системы искусственного интеллекта по-прежнему получают доступ к вредоносной информации. Но правила безопасности не позволяют делиться им с пользователями.

Давайте посмотрим на ChatGPT. Хотя он отвечает на общие вопросы о троянах, процесс их разработки не обсуждается.

Тем не менее, ограничения не являются надежными. Пользователи раздвигают границы, перефразируя подсказки, используя запутанный язык и явно составляя подробные инструкции.

Прочтите приведенную ниже подсказку по джейлбрейку ChatGPT. Он обманом заставляет ChatGPT использовать грубые выражения и делать необоснованные прогнозы — оба действия нарушают рекомендации OpenAI.

Вот ChatGPT делает смелое, но ложное заявление.

Проверять Что такое джейлбрейк ChatGPT? Стоит ли использовать эти технологии?

3. ИИ жертвует безопасностью ради универсальности

Компании с искусственным интеллектом отдают предпочтение разнообразию, а не безопасности. Он тратит свои ресурсы на тренировочные площадки для выполнения более разнообразного набора задач, что в конечном итоге приводит к меньшему количеству ограничений. Ведь рынок хвалит функциональных чат-ботов.

Давайте сравним ChatGPT и чат Bing , Например. Хотя Bing имеет более сложную языковую модель, которая извлекает данные в режиме реального времени, пользователи по-прежнему предпочитают более универсальный вариант — ChatGPT. Строгие ограничения Bing блокируют многие задачи. Вместо этого ChatGPT имеет гибкую платформу, которая выдает совершенно разные результаты в зависимости от ваших запросов.

Вот роль ChatGPT как вымышленного персонажа.

Здесь Bing Chat отказывается играть «аморального» персонажа.

4. Новые инструменты генеративного ИИ регулярно появляются на рынке

Открытый исходный код позволяет стартапам присоединиться к гонке ИИ. Они включают их в свои приложения, а не создают языковые модели с нуля, что экономит огромные ресурсы. Даже программисты-фрилансеры экспериментируют с открытым исходным кодом.

Опять же, непатентованное программное обеспечение помогает развивать ИИ, но массовый выпуск плохо обученных, но сложных систем приносит больше вреда, чем пользы. Мошенники быстро воспользуются уязвимостями. Они могут даже обучать небезопасные инструменты ИИ для выполнения незаконных действий.

Несмотря на эти риски, технологические компании будут продолжать выпускать нестабильные бета-версии платформ, управляемых искусственным интеллектом. Гоночный ИИ вознаграждает за скорость. Вполне возможно, что ошибки будут устранены позже, а не откладывать запуск новых продуктов.

5. Генеративный ИИ имеет низкие входные барьеры

Инструменты ИИ снижают входные барьеры для преступников. Киберпреступники создают спам-рассылки, пишут вредоносный код и создают фишинговые ссылки, используя их. Ему даже не нужны технические знания. Поскольку ИИ уже имеет доступ к огромным наборам данных, пользователям нужно только обмануть его для получения вредоносной и опасной информации.

OpenAI никогда не разрабатывал ChatGPT для незаконных действий. У него даже есть инструкции против этого. Однако почти сразу же мошенники смогли получить вредоносное ПО, запрограммированное ChatGPT, и написать фишинговые письма.

Хотя OpenAI быстро решил проблему, он подчеркивает важность организации системы и управления рисками. Искусственный интеллект взрослеет быстрее, чем кто-либо ожидал. Даже технологические лидеры опасаются, что эта передовая технология может нанести серьезный ущерб, если попадет не в те руки. Проверять Как генеративный ИИ изменит рынок труда.

6. Искусственный интеллект все еще развивается

Искусственный интеллект все еще развивается. Хотя использование искусственного интеллекта в Кибернетика до 1940-х годов Современные системы машинного обучения и языковые модели появились совсем недавно. Вы не можете сравнить это с первыми приложениями искусственного интеллекта. Даже относительно продвинутые инструменты, такие как Siri и Alexa, меркнут по сравнению с чат-ботами на основе моделей LLM.

Хотя экспериментальные функции могут быть инновационными, они также создают новые проблемы. Громкие инциденты с методами машинного обучения варьируются от ошибочных результатов поиска Google до предвзятых чат-ботов, изрыгающих расовые оскорбления.

Конечно, разработчики могут исправить эти проблемы. Только учтите, что мошенники без колебаний воспользуются, казалось бы, безобидными ошибками — некоторые повреждения необратимы. Так что будьте осторожны при изучении новых платформ.

7. Многие люди еще не понимают ИИ

Хотя широкая публика имеет доступ к сложным языковым моделям и системам, мало кто знает, как они работают. Пользователи должны перестать относиться к ИИ как к игре. Те же самые чат-боты, которые генерируют интернет-мемы и отвечают на вопросы викторин, также программируют вирусы и помогают распространять вредоносное ПО.

К сожалению, централизованное обучение ИИ нереально. Руководители глобальных технологических компаний сосредоточены на выпуске систем на основе ИИ, а не на бесплатных образовательных ресурсах. В результате пользователи получают доступ к мощным и продвинутым инструментам, в которых едва ли разбираются. Общественность не может идти в ногу с гонкой ИИ.

Возьмите ChatGPT в качестве примера. Киберпреступники злоупотребляют, используя его популярность, чтобы обманом заставить жертв установить шпионское ПО, замаскированное под приложения ChatGPT. Ни один из них не исходит от OpenAI. Проверять Безопасны ли сторонние приложения и расширения браузера для ChatGPT?

8. Черные хакеры могут получить больше, чем этичные хакеры

Черные хакеры обычно могут зарабатывать больше, чем этичные хакеры. Да, кастинги для технологических лидеров хорошо окупаются, но лишь небольшой процент специалистов по кибербезопасности получает эту работу. Большинство из них являются фрилансерами в Интернете. платные платформы, такие как HackerOne و Bugcrowd Несколько сотен долларов за выявление типичных ошибок.

Вместо этого мошенники зарабатывают десятки тысяч, используя незащищенность. Они могут вымогать у компаний утечку конфиденциальных данных или совершение кражи информации, позволяющей установить личность (PII).

Каждая компания, малая или крупная, должна правильно внедрять системы ИИ. Вопреки распространенному мнению, хакеры обходят технологические стартапы и МСП. Некоторые из самых исторических утечек данных за последнее десятилетие включают Facebook, Yahoo! И даже правительство США. Проверять Как ИИ может помочь киберпреступникам.

Защитите себя от угроз безопасности ИИ

Учитывая эти моменты, следует ли вообще избегать ИИ? конечно, нет. ИИ по своей сути аморален; Все риски безопасности исходят от людей, которые на самом деле его используют. И они найдут способы использовать системы ИИ, какими бы сложными они ни были.

Вместо того, чтобы бояться угроз кибербезопасности, связанных с ИИ, поймите, как вы можете их предотвратить. Не беспокойтесь: простые меры безопасности имеют большое значение. Отслеживание подозрительных приложений ИИ, избегание странных гиперссылок и сомнительный просмотр контента ИИ на самом деле борются со многими рисками. Вы можете просмотреть сейчас Делает ли использование искусственного интеллекта в кибербезопасности мир безопаснее?

Перейти к верхней кнопке