Искусственный интеллект: какие угрозы для организаций?

На прошлой неделе эксперты в области технологий, ученые и исследователи социальных отношений подняли тревогу по поводу применения искусственного интеллекта, призывая к прекращению исследований и созданию тормозов, правил и, прежде всего, государственного контроля. Если, с одной стороны, развитие технологий желательно и приветствуется, с другой стороны, оно вызывает вопросы: как, когда и почему лидеры бизнесаariaиспользует технологию – вот вопросы, которые необходимо задать. На этой неделе журнал Forbes перечислил 10 реальных угроз корпорациям перед лицом ИИ. Понимать.

Написал
Марсела Гимарайнш

По мере развития ИИ компании будут сталкиваться с целым рядом юридических и коммерческих рисков, во-первых, от злоумышленников, использующих эти технологии для нанесения вреда бизнесу, и, во-вторых, когда компании сами захотят внедрить чат-ботов. ou другие формы ИИ в его функциях», — Мэтью Ферраро, юрист по кибербезопасности юридической фирмы Wilmer Hale, для Forbes.

Ферраро также отметил, какие области подвергаются наибольшему риску при использовании новых технологий искусственного интеллекта в компаниях и о чем лидерам следует помнить. Ниже приведены 10 угроз, перечисленных экспертом и Журнал Forbes в применении искусственного интеллекта:

1 – Коммерческие контракты

«Информация, передаваемая в ИИ, включая «подсказки», задающие вопросы чат-ботам, должна считаться общедоступной, а не частной. Это связано с тем, что чат-боты могут использовать получаемые ими данные для разработки и улучшения своих услуг.

«Компании должны быть осторожны при взаимодействии с чат-ботами, которые запрашивают информацию у клиентов или партнеров, на которую распространяются договорные ограничения конфиденциальности или другие меры контроля».

2 – Кибербезопасность

«Чат-боты могут создавать вредоносные программы и выдавать себя за человеческие разговоры, которые можно использовать для фишинга и мошенничества в социальных сетях».

3 – Частные данные

«Инструменты искусственного интеллекта могут собирать персональные данные и передавать их третьим лицам, потенциально нарушая законы о конфиденциальности данных».

4 – Обманная коммерческая практика

«Использование искусственного интеллекта, в том числе чат-ботов, для обмана потребителей может нарушать законы, запрещающие недобросовестную и вводящую в заблуждение деловую практику».

5 – Дискриминация

«Результаты ИИ могут быть предвзятыми в отношении определенных групп из-за предвзятого характера данных, на которых обучаются инструменты ИИ. Регулирующие органы США, включая Белый дом и Федеральную торговую комиссию, подчеркивают ответственное и недискриминационное использование ИИ».

6 – Дезинформация

«Чат-боты могут превратить крупномасштабную ложную информацию в правдоподобный разговор, даже если пользователь не так бегло говорит».

7 – Этика

«Компании должны гарантировать, что использование ИИ соответствует этическим обязательствам, особенно тем, которые налагаются профессиональными организациями. Например, использование ИИ для представления интересов клиентов может представлять собой несанкционированную юридическую практику».

8 – Государственные контракты

«Госконтракты требуют откровенности со стороны подрядчиков. Подрядчики должны быть прозрачными в отношении использования ИИ, чтобы не вводить правительство в заблуждение».

9 – Интеллектуальная собственность

"Использование Генеративный ИИ представляет множество различных типов рисков интеллектуальной собственности. Материал, загруженный в ИИ, может быть защищен правообладателями. И часто неясно, кому принадлежит интеллектуальная собственность, созданная ИИ; судебные разбирательства в этой области продолжаются».

10 – Проверка

«Чат-боты могут выдавать ложные заявления, которые кажутся исходящими от властей. Компании, использующие чат-ботов, должны проверять ответы, прежде чем полагаться на них для принятия бизнес-решений».

Прежде чем полностью внедрять ИИ и подвергать свои организации воздействию этих и других кризисных факторов, руководителям следует рассмотреть возможность осторожного и осторожного использования этого нового технологического инструмента, говорится в докладе.

Читайте также:

Последний раз это сообщение было изменено 2 апреля 2023 г., 10:53.

Марсела Гимарайнш

Последние сообщения

Fontjoy: создавайте собственные текстовые шрифты с помощью ИИ

Fontjoy — это онлайн-инструмент, который позволяет легко комбинировать шрифты с помощью глубокого обучения. А…

13 июня 2024

Пожилая кошка получает помощь от искусственного интеллекта для поддержания здоровья в Японии

57-летняя Маюми Китаката глубоко заботится о здоровье и благополучии своих детей.

13 июня 2024

Криптовалюта и искусственный интеллект могут стать мегатрендом на 20 триллионов долларов, говорит Bitwise

Искусственный интеллект (ИИ) и криптотехнологии могут существенно повлиять на…

13 июня 2024

Новый закон ЕС требует прозрачности данных, используемых в ИИ

Новый закон Европейского Союза (ЕС) об искусственном интеллекте (ИИ) заставит компании…

13 июня 2024

Гиперактивность детей: ИИ способствует раннему выявлению и эффективному лечению

Исследователи из университетов Малаги (UMA) и Аликанте (UA) в Испании разработали…

13 июня 2024

Рост Broadcom растет на фоне прогнозов роста спроса на чипы искусственного интеллекта

В четверг акции Broadcom выросли примерно на 15% на фоне оптимистичного годового прогноза...

13 июня 2024