Искусственный интеллект: какие угрозы для организаций?

На прошлой неделе эксперты в области технологий, ученые и исследователи социальных отношений подняли тревогу по поводу применения искусственного интеллекта, призывая к прекращению исследований и созданию тормозов, правил и, прежде всего, государственного контроля. Если, с одной стороны, развитие технологий желательно и приветствуется, с другой стороны, оно вызывает вопросы: как, когда и почему лидеры бизнесаariaиспользует технологию – вот вопросы, которые необходимо задать. На этой неделе журнал Forbes перечислил 10 реальных угроз корпорациям перед лицом ИИ. Понимать.

По мере развития ИИ компании будут сталкиваться с целым рядом юридических и коммерческих рисков, во-первых, от злоумышленников, использующих эти технологии для нанесения вреда бизнесу, и, во-вторых, когда компании сами захотят внедрить чат-ботов. ou другие формы ИИ в его функциях», — Мэтью Ферраро, юрист по кибербезопасности юридической фирмы Wilmer Hale, для Forbes.

ПУБЛИЧНОСТЬ

Ферраро также отметил, какие области подвергаются наибольшему риску при использовании новых технологий искусственного интеллекта в компаниях и о чем лидерам следует помнить. Ниже приведены 10 угроз, перечисленных экспертом и Журнал Forbes в применении искусственного интеллекта:

1 – Коммерческие контракты

«Информация, передаваемая в ИИ, включая «подсказки», задающие вопросы чат-ботам, должна считаться общедоступной, а не частной. Это связано с тем, что чат-боты могут использовать получаемые ими данные для разработки и улучшения своих услуг.

«Компании должны быть осторожны при взаимодействии с чат-ботами, которые запрашивают информацию у клиентов или партнеров, на которую распространяются договорные ограничения конфиденциальности или другие меры контроля».

ПУБЛИЧНОСТЬ

2 – Кибербезопасность

«Чат-боты могут создавать вредоносные программы и выдавать себя за человеческие разговоры, которые можно использовать для фишинга и мошенничества в социальных сетях».

3 – Частные данные

«Инструменты искусственного интеллекта могут собирать персональные данные и передавать их третьим лицам, потенциально нарушая законы о конфиденциальности данных».

4 – Обманная коммерческая практика

«Использование искусственного интеллекта, в том числе чат-ботов, для обмана потребителей может нарушать законы, запрещающие недобросовестную и вводящую в заблуждение деловую практику».

ПУБЛИЧНОСТЬ

5 – Дискриминация

«Результаты ИИ могут быть предвзятыми в отношении определенных групп из-за предвзятого характера данных, на которых обучаются инструменты ИИ. Регулирующие органы США, включая Белый дом и Федеральную торговую комиссию, подчеркивают ответственное и недискриминационное использование ИИ».

6 – Дезинформация

«Чат-боты могут превратить крупномасштабную ложную информацию в правдоподобный разговор, даже если пользователь не так бегло говорит».

7 – Этика

«Компании должны гарантировать, что использование ИИ соответствует этическим обязательствам, особенно тем, которые налагаются профессиональными организациями. Например, использование ИИ для представления интересов клиентов может представлять собой несанкционированную юридическую практику».

ПУБЛИЧНОСТЬ

8 – Государственные контракты

«Госконтракты требуют откровенности со стороны подрядчиков. Подрядчики должны быть прозрачными в отношении использования ИИ, чтобы не вводить правительство в заблуждение».

9 – Интеллектуальная собственность

"Использование Генеративный ИИ представляет множество различных типов рисков интеллектуальной собственности. Материал, загруженный в ИИ, может быть защищен правообладателями. И часто неясно, кому принадлежит интеллектуальная собственность, созданная ИИ; судебные разбирательства в этой области продолжаются».

10 – Проверка

«Чат-боты могут выдавать ложные заявления, которые кажутся исходящими от властей. Компании, использующие чат-ботов, должны проверять ответы, прежде чем полагаться на них для принятия бизнес-решений».

ПУБЛИЧНОСТЬ

Прежде чем полностью внедрять ИИ и подвергать свои организации воздействию этих и других кризисных факторов, руководителям следует рассмотреть возможность осторожного и осторожного использования этого нового технологического инструмента, говорится в докладе.

Читайте также:

прокрутить вверх