ИИ становится важным инструментом для бизнеса, но пользоваться им нужно с осторожностью. Риски для кибербезопасности, некачественный контент, плагиат – все эти и многие другие опасные моменты нужно учитывать, когда вы работаете с новой технологией.

12 июля
Евгений Смирнов

Малому бизнесу нравится ИИ, но это не повод расслабляться

Компании МСБ опробовали ИИ и решили сделать эту технологию частью своего арсенала. Опросы показывают, что в каждом третьем предприятии МСП (30%) руководители использовали инструменты на базе искусственного интеллекта. Большинству понравилось — 70% пользователей таких инструментов оценили свой опыт положительно.

Алгоритмы позволяют бизнесу сокращать затраты (так считают 94% опрошенных), экономить рабочее время (63%) и освобождать сотрудников от рутины для выполнения более важных дел (49%). Их используют в маркетинге и рекламе (54%), для взаимодействия с клиентами (33%) и IT-разработки (18%).

Однако популярность инструментов на базе ИИ и положительный опыт бизнеса с ними — не повод расслабляться. Это по-прежнему новая и не в полной мере стабильная технология, и в работе с ней есть есть проблемные точки, для которых на рынке может не быть проверенных решений.

Проблема 1: Внедрить ИИ в бизнесе пока что не так просто

С алгоритмами можно поиграть, чтобы сделать интересные картинки или тексты, но с инструментами для бизнеса дела обстоят сложнее. На рынке ИИ постоянно появляются новые игроки, но он еще далек от стабильности. Решения могут не соответствовать ожиданиям пользователей, быть слишком сложными или не оправдывать вложенных в них средств.

Исследование Яндекса показало, что 99% внедрявших ИИ компаний столкнулись с нехваткой специалистов, которые разбираются в этой технологии. Еще 78% не нашли подходящих решений или столкнулись с трудностями при разработке собственных. Наконец, 57% отметили высокую стоимость решений как главный барьер при работе с алгоритмами.

Многие из этих проблем разрешатся по мере того, как технология будет становиться более популярной и доступной. Однако на данном этапе развития будьте готовы к непростому процессу адаптации.

Проблема 2: “Заспамленный” и неоригинальный контент

Сейчас ИИ чаще всего применяется для создания контента. Это позволяет экономить время и деньги, однако результаты иногда оставляют желать лучшего. Дело в том, что для выдачи результатов ИИ обрабатывает массивы данных в интернете и производит похожие на них тексты и изображения. Например, если вы просите ИИ сделать описание товара для новых кроссовок, он анализирует миллионы похожих текстов в открытом доступе и выдает что-то среднее из этих данных.

Такой подход приводит к тому, что созданный ИИ контент может быть однообразным и скучным. В нем не будет индивидуального авторского голоса и цепляющих моментов. Для стандартных текстов, вроде новостей и инструкций, это не проблема, но для маркетингового контента особенно важно быть запоминающимся, иначе аудитория предпочтет конкурентов.

“Заспамленные” тексты от нейросетей плохо работают не только на читателей. Засилье однотипных и не соответствующих запросам текстов стало большой проблемой для крупных поисковиков. Поэтому гиганты Яндекс и Google начали повышать требования по проверке контента и жестко отсеивать автоматические тексты. Для бизнеса это угроза — с ИИ текстами ваш сайт может быстро опуститься на последние страницы поисковой выдачи.

Проблема 3: Правовые и репутационные риски

Базы данных, которые компании используют для обучения языковых моделей для ИИ, собираются в интернете и обычно закрыты для пользователей. Это значит, что нейросеть по вашему запросу может воспроизвести защищенный авторским правом материал или хорошо узнаваемые элементы стиля ныне живущего художника или автора. С правовой точки зрения все это пока абсолютно новая территория, но судебные разбирательства о нарушении авторских прав нейросетью уже есть.

Применение ИИ чревато и другими рисками для репутации и правового статуса компании. Нейросети пока что плохо ориентируются в контексте реального мира и могут делать очевидные и абсурдные ошибки, которых бы не допустил даже самый неопытный сотрудник.

Например, ИИ может распространять дезинформацию. Результаты исследований показывают, что Chat GPT соглашается с ложными утверждениями в 26% случаев, а также легко верит в конспирологические теории.

Ошибки нейросети могут испортить отношения компании с клиентами. Например, британская служба доставки была вынуждена отключить свой чат-бот, который в переписке с клиентом называл ее худшей в мире. Даже ИИ в поисковике Google регулярно советует пользователям совершенно дикие вещи: например, рекомендует регулярно смотреть на солнце от 5 до 15 минут или есть по несколько камней в день.

Проблема 4: Риски для безопасности данных

Любые инновации влекут за собой новые угрозы для безопасности, однако с ИИ это особенно актуально в силу того, как мало нам известно о принципах работы этой технологии.

Ключевой риск здесь связан с особенностями обучения и развертывания языковых моделей. Большинство коммерческих инструментов имеют закрытый исходный код, поэтому работая с такой моделью, вы зависимым от поставщика, который может закрыть доступ к ней или прекратить ее поддержку.

Услуги ИИ чаще всего предоставляются по облачной модели, что создает риски для конфиденциальности. Пользовательские запросы обрабатываются и хранятся на серверах поставщика, а значит нельзя исключить вероятность утечки в открытый доступ. ИИ-инструменты также нередко используют данные для дальнейшего обучения модели, а значит конфиденциальная корпоративная информация может случайно “всплыть” в запросах других пользователей.

Безусловно, все это не значит, что ИИ инструментами в бизнесе не стоит пользоваться. В нашей инструкции мы рассказывали о том, какие решения наиболее актуальны для МСБ и на что нужно обращать внимание при их внедрении. Главное на данном этапе развития ИИ — оставаться бдительным и предпринимать дополнительные шаги для защиты корпоративных данных, которые вы обрабатываете при помощи нейросетей.

теги:
Поделиться:
Напишите что-нибудь и нажмите Enter