По мере развития ИИ компании будут сталкиваться с целым рядом юридических и коммерческих рисков, во-первых, от злоумышленников, использующих эти технологии для нанесения вреда бизнесу, и, во-вторых, когда компании сами захотят внедрить чат-ботов. ou другие формы ИИ в его функциях», — Мэтью Ферраро, юрист по кибербезопасности юридической фирмы Wilmer Hale, для Forbes.
ПУБЛИЧНОСТЬ
Ферраро также отметил, какие области подвергаются наибольшему риску при использовании новых технологий искусственного интеллекта в компаниях и о чем лидерам следует помнить. Ниже приведены 10 угроз, перечисленных экспертом и Журнал Forbes в применении искусственного интеллекта:
1 – Коммерческие контракты
«Информация, передаваемая в ИИ, включая «подсказки», задающие вопросы чат-ботам, должна считаться общедоступной, а не частной. Это связано с тем, что чат-боты могут использовать получаемые ими данные для разработки и улучшения своих услуг.
«Компании должны быть осторожны при взаимодействии с чат-ботами, которые запрашивают информацию у клиентов или партнеров, на которую распространяются договорные ограничения конфиденциальности или другие меры контроля».
ПУБЛИЧНОСТЬ
2 – Кибербезопасность
«Чат-боты могут создавать вредоносные программы и выдавать себя за человеческие разговоры, которые можно использовать для фишинга и мошенничества в социальных сетях».
3 – Частные данные
«Инструменты искусственного интеллекта могут собирать персональные данные и передавать их третьим лицам, потенциально нарушая законы о конфиденциальности данных».
4 – Обманная коммерческая практика
«Использование искусственного интеллекта, в том числе чат-ботов, для обмана потребителей может нарушать законы, запрещающие недобросовестную и вводящую в заблуждение деловую практику».
ПУБЛИЧНОСТЬ
5 – Дискриминация
«Результаты ИИ могут быть предвзятыми в отношении определенных групп из-за предвзятого характера данных, на которых обучаются инструменты ИИ. Регулирующие органы США, включая Белый дом и Федеральную торговую комиссию, подчеркивают ответственное и недискриминационное использование ИИ».
6 – Дезинформация
«Чат-боты могут превратить крупномасштабную ложную информацию в правдоподобный разговор, даже если пользователь не так бегло говорит».
7 – Этика
«Компании должны гарантировать, что использование ИИ соответствует этическим обязательствам, особенно тем, которые налагаются профессиональными организациями. Например, использование ИИ для представления интересов клиентов может представлять собой несанкционированную юридическую практику».
ПУБЛИЧНОСТЬ
8 – Государственные контракты
«Госконтракты требуют откровенности со стороны подрядчиков. Подрядчики должны быть прозрачными в отношении использования ИИ, чтобы не вводить правительство в заблуждение».
9 – Интеллектуальная собственность
"Использование Генеративный ИИ представляет множество различных типов рисков интеллектуальной собственности. Материал, загруженный в ИИ, может быть защищен правообладателями. И часто неясно, кому принадлежит интеллектуальная собственность, созданная ИИ; судебные разбирательства в этой области продолжаются».
10 – Проверка
«Чат-боты могут выдавать ложные заявления, которые кажутся исходящими от властей. Компании, использующие чат-ботов, должны проверять ответы, прежде чем полагаться на них для принятия бизнес-решений».
ПУБЛИЧНОСТЬ
Прежде чем полностью внедрять ИИ и подвергать свои организации воздействию этих и других кризисных факторов, руководителям следует рассмотреть возможность осторожного и осторожного использования этого нового технологического инструмента, говорится в докладе.
Читайте также: