人工智慧:組織面臨哪些威脅?

上週,技術專家、學者和社會關係學者對人工智慧的應用發出了警報,呼籲停止研究並制定煞車、規則,最重要的是政府控制。如果一方面技術的進步是人們所期望和歡迎的,那麼另一方面它又提出了問題:企業領導者如何、何時以及為何aria是否採用技術是需要提出的問題。本週的《富比士》雜誌列出了企業面臨人工智慧的 10 個真正威脅。理解。

隨著人工智慧的進步,公司將面臨一系列法律和商業風險,首先是不良行為者利用這些技術損害企業,其次是公司本身想要實施聊天機器人。 ou Wilmer Hale 律師事務所的網路安全律師 Matthew F Ferraro,為《富比士》雜誌撰稿。

宣傳

費拉羅也指出,在公司中使用新興人工智慧技術的哪些領域面臨的風險最大,以及領導者應該牢記哪些領域。以下是專家列出的 10 種威脅 福布斯雜誌 在人工智慧應用方面:

1 – 商業合約

“輸入人工智慧的訊息,包括向聊天機器人提問的‘提示’,應該被視為公開的,而不是私人的。這是因為聊天機器人可以使用它們所獲得的數據來開發和改進其服務。

“公司在與聊天機器人打交道時應小心謹慎,因為聊天機器人向客戶或合作夥伴請求信息,而這些信息受到保密或其他控制方面的合同限制。”

宣傳

2 – 網路安全

“聊天機器人可以創建惡意軟體並模仿人類對話,用於網路釣魚和社交媒體詐騙。”

3 – 私人數據

“人工智慧工具可以收集個人數據,並與第三方共享,這可能違反數據隱私法。”

4 – 欺騙性商業行為

“使用人工智慧(包括聊天機器人)來欺騙消費者可能違反禁止不公平和欺騙性商業行為的法律。”

宣傳

5 – 歧視

「由於人工智慧工具訓練的數據存在偏見,人工智慧結果可能會對某些群體產生偏見。包括白宮和聯邦貿易委員會在內的美國監管機構強調以負責任和非歧視的方式使用人工智慧。”

6 – 錯誤訊息

“聊天機器人可以大規模地將虛假信息創建為可信的對話,即使用戶不太流利。”

7 – 道德

「公司必須確保其對人工智慧的使用符合道德義務,特別是專業組織施加的道德義務。例如,使用人工智慧代表客戶可能構成未經授權的法律行為。”

宣傳

8 – 政府合約

「政府合約要求承包商坦誠相待。承包商必須對其人工智慧的使用保持透明,以避免誤導政府。”

9 – 智慧財產權

「指某東西的用途 生成式人工智能 存在許多不同類型的知識產權風險。輸入人工智慧的材料可以受到權利持有者的保護。通常並不清楚誰擁有人工智慧生成的知識產權;該領域的訴訟正在進行中。”

10 – 驗證

「聊天機器人可能會產生看似來自當局的虛假陳述。使用聊天機器人的公司必須在依賴聊天機器人做出業務決策之前驗證回應。”

宣傳

報告認為,在全面採用人工智慧並使組織面臨這些和其他危機觸發因素之前,高階主管應該考慮以謹慎和謹慎的方式推進這項新技術工具。

閱讀:

向上滑動