公司如何利用個人化人工智慧來操縱你

已發表: 2024-02-07
目錄隱藏
1個性化的魅力
2監控行銷模式
3成癮而非對齊
4知情同意書
4.1擴大用戶隱私保護
4.2能力透明溝通
4.3增強公共演算法審計
5賦予用戶選擇權
6促進人工智慧多元化
7圍繞合成媒體建立透明度
7.1強制揭露標準
7.2認證基礎設施
7.3知情同意政策
7.4防止生成欺騙
8以公共利益監督指導人工智慧
8.1專家顧問委員會
8.2政府監管
8.3全球規範與協議
8.4公眾監督作為解藥
9讓社區做好應對經濟影響的準備
9.1工作過渡支持
9.2合作過渡基金
9.3替代商業模式

使用人工智慧客製化內容和推薦的能力為消費者帶來了寶貴的個人化體驗。

但如果不小心,生成式人工智慧開發服務也有可能代表企業利益操縱使用者。

我們該如何平衡人工智慧的好處和防止濫用的保護?

個性化的魅力

應用程式和平台越來越多地利用人工智慧來為每個用戶提供獨特的客製化體驗。

推薦引擎會根據您的口味客製化媒體和產品。

聊天機器人根據您的對話模式進行互動。 生成式人工智慧甚至可以即時製作個人化訊息和創意內容。

這種由生成式人工智慧開發服務提供支援的個人風格提供了明確的實用性。

客戶感到被理解並收到與其需求相關的建議。

使用者體驗感覺不那麼通用,更具吸引力。 品牌透過相關性建立忠誠度。

但在個人化的誘惑下,人們很容易忽略的是,這些相同的技術也使公司能夠非常容易地以非常個人化的方式策略性地影響、利用和操縱用戶。

監控行銷模式

許多個人化模型依賴大量資料監控、追蹤使用者行為、關係、情緒、位置模式等。 這些豐富的行為模式加劇了操縱風險。

生成式人工智慧服務可以挖掘這些個人數據,以找出我們的壓力點——恐懼、不安全感、慾望——這些壓力點使我們在被利用時容易受到有針對性的影響。 對使用者的巨大影響力正在發揮作用。

有些平台逐漸提供使用者更兩極化的內容,以追求參與度指標。

憤怒和恐懼被放大。 客觀事實傾向於演算法激進化。

雖然數據增強了相關性,但過度依賴監控也會威脅到使用者自主權和社會凝聚力。 深思熟慮地平衡實用性和保護性問題。

成癮而不是對齊

此外,最重要的是優化用戶參與度的生成式人工智慧服務可能會失去與用戶福祉的一致性。

系統動態學習如何最好地吸引註意力、觸發衝動並讓使用者不斷滾動,利用相同的人工智慧技術來優化健康、同理心和人類潛力。

然而,公司往往會鼓勵人們上癮,而不是與目標一致。

如果人工智慧系統以獎勵幻想而非真理的指標為指導,那麼整個社區可能會因為參與演算法控制思想而失去現實、同情心和理性。

這強調了監督和設計限制的必要性,以防止未經檢查的人工智慧僅僅為了私人利益而不是集體福祉而優化。

與道德的一致性必須保持不容談判的態度。

由生成式人工智慧服務提供支援的個人化還存在將共享現實分割成孤立的過濾氣泡、扭曲世界觀的風險。

當人工智慧模型提供的資訊適合使用者現有的觀點時,假設就不會受到挑戰。

批判性話語逐漸消失。 細微差別消失了。 這種差異變得具有威脅性。 真理會分裂。

相反,生成式人工智慧可以用來培養同理心、引入新想法、彌合分歧並培養共同理解。

但必須重新檢視推動孤立而非包容的商業模式。

知情同意書

確保使用者了解生成式人工智慧系統是否、何時以及如何個人化電子內容以專門操縱他們的參與和行為也是一個重要的關注領域。

用戶是否充分了解狀況?

在治療和教育等領域,模糊人類和人工智慧指導之間的界線會引起道德擔憂,可能需要圍繞透明度進行特殊保護。

人工智慧知情同意標準值得關注。

整體而言,實現生成式人工智慧在道德方面的好處需要認真的監督。 但具體什麼可以改善防止濫用的保護呢? 護欄該出現在哪裡?

擴大用戶隱私保護

加強法律隱私保護措施,限制生成型人工智慧開發服務存取、使用和保留個人資料的方式,為防止濫用提供基本保護。

特別是,在建立用於生成人工智慧個人化的行為使用者模型時,限制未經同意使用生物識別、通訊、位置和關係模式等數據將有所幫助。

賦予用戶更大的權利來審核他們的哪些資料被用於產生人工智慧並要求刪除,這也支持同意。

如果需要的話,允許使用者完全選擇退出個人化系統也是如此。

然而,生成式人工智慧服務僅限於聚合匿名數據,造成操縱性個人化的風險要小得多。 發展具有內在道德的模型最為重要。

透明的能力溝通

圖片來源

與使用者進行清晰的溝通,解釋生成式人工智慧是否以及如何個人化內容也很重要——對限制設定適當的期望。

誇大生成式人工智慧服務的複雜性可能會帶來欺騙的風險,如果功能未能達到經過仔細檢查的要求,就會背叛用戶的信任。

生成式人工智慧開發公司還應該提高模型功能、訓練資料和指導個人化的評估指標的透明度。

優先考慮哪些與道德的一致性? 解釋社會影響體現了責任感。

增強的公共演算法審計

擴大法律權利和資源,使外部研究人員能夠審核指導產生人工智慧服務的演算法,支持對濫用行為的問責。

針對偏見、操縱和對認知健康的影響等問題評估個性化模型的獨立分析為人工智慧與公共利益的結合提供了重要的監督,但公司必須促進安全存取。

民間團體和學術機構跨國合作並彙集審計能力將加強對全球人工智慧系統的監督。 公共審計向公司施加壓力,要求其表現出對道德的承諾。

賦予用戶選擇權

提供清晰的介面,使用戶能夠表達對生成式人工智慧服務如何個人化資訊的偏好,也可以促進賦權。

調整與內容主題、觀點、資料使用、語氣等相關參數的選項允許個人選擇與其目標和價值觀相符的體驗。

直觀地顯示設定如何影響人工智慧生成的資訊景觀的工具也可以建立理解。

最終,維持人類對資訊生態系統的自主權有助於自我導向的繁榮。

促進人工智慧多元化

防止生成型人工智慧服務和數據在少數公司內部整合,可以降低系統性操縱風險,並支援具有獨特價值主張的服務多樣性。

強有力的競爭政策、互通性標準和資料可攜權可防止對生成型人工智慧能力的壟斷,從而限制替代方案。

圍繞道德具有獨特創新的多種服務賦予使用者權力。

以用戶福祉為導向的投資支持非營利公益平台,而不僅僅是利潤最大化,提供了額外的選擇。

追求公平分配的人工智慧多元化,創造有益於社會的製衡。

圍繞合成媒體建立透明度

隨著生成式人工智慧能夠產生越來越令人信服的合成媒體(例如深度偽造),確保真實和虛假的透明度變得至關重要。 如果沒有勤奮的政策,生成模型就有可能導致大規模欺騙。

強制揭露標準

一項政策提案要求在分發之前明確標記人工智慧合成媒體,類似於廣告的揭露。

這可以防止嘗試將合成內容冒充為真實內容。

有些人主張在媒體文件上加水印以表明人工智慧的出處。

其他人則建議在播放期間需要文字或語音覆蓋以口頭方式披露合成來源。 標準應適用於商業和政治用途。

法律處罰和平台政策將強制遵守。

總體而言,強制揭露建立了規範,防止透過忽略生成媒體的真實性而造成欺騙。

身份驗證基礎設施

此外,身分驗證基礎設施的進步可以使大規模驗證媒體完整性變得更加容易。

支援區塊鏈的媒體指紋、取證分析系統和透過生產管道的來源追蹤正在出現。

這些技術使平台、記者和監管機構能夠有效驗證媒體來源和完整性,而不是僅僅依賴揭露。

指紋資料庫也有助於識別未經揭露的操縱媒體傳播。

隨著生成模型變得越來越複雜,結合人力和技術專業知識的強大身份驗證對於打擊大規模錯誤訊息至關重要。

支援高效驗證的標準和平台應擴大存取範圍。

知情同意政策

因為當個人的相似性被綜合到他們從未同意的情況下時,個人就會受到傷害,因此圍繞知情同意的政策也值得考慮。

有些人主張立法保護個人拒絕在生成模型中使用其資料和相似性的權利。

使用可識別資料訓練產生系統可能需要選擇加入權限。

事後撤銷同意、清除訓練資料和質疑未經批准的合成媒體的權利也可能有助於平衡產生人工智慧的風險。

開發模型的公司有尊重身分和同意的道德義務。

防止生成欺騙

除了身分驗證和揭露之外,還需要加強防止使用生成人工智慧進行徹底不道德欺騙的限制。

法律和平台政策應禁止故意傳播可證明虛假的合成媒體,尤其是針對政客和選舉的媒體。

當生成模型用於公然欺騙和欺詐時,它與核心民主價值相矛盾。

也必須仔細制定標準,以避免不成比例的影響範圍,從而無意中審查諷刺、模仿和受保護的言論。

然而,減少故意操縱的指導方針有助於強化規範。

公司、立法者和民間社會之間需要通力合作,實施全面的政策,打擊破壞公眾信任和話語的不真實的生成媒體。

以公共利益監督指導人工智慧

將快速發展的生成式人工智慧能力的治理完全交給私人公司可能會導致商業激勵優先於公共利益。 獨立監督至關重要。

專家顧問委員會

為了負責任地指導生成人工智慧,領先的公司應該召集包括倫理學家、政策專家、研究人員和民權倡導者在內的專家顧問委員會。

這些團體可以評估新興能力,進行影響審查,提出限制因素,標記潛在危害,並評估與人權和民主原則的一致性。 這種投入決定了內部政策。

應用不同視角的多學科審查有助於批判性、全面地解決生成人工智慧系統中複雜的技術和道德維度。 外部投入加強了問責制。

政府監管

政府也有責任出於公共利益制定指導和限制生成人工智慧的法規。 僅僅對股東負責是不夠的。

規定透明度報告、外部審計和演算法社會影響審查的法律可以提供健康的監督,鼓勵謹慎行事,並消除公眾辯論的擔憂。

反操縱政策、身分權利保障、揭露要求和認證標準也確保生成式人工智慧加強民主和人類尊嚴。 平衡的監管制度非常重要。

全球規範和協議

由於生成模型在全球範圍內迅速傳播,闡明共同原則和禁止做法的多邊協議也值得追求。

國際社會應努力培養圍繞同意、歸屬、真實、不操縱、問責和監督的規範,提供全球道德指南針。

不同的國家政策會導致剝削。

雖然達成共識需要時間,但即使是不完善的協議,闡明了反對惡意使用生成人工智慧的紅線和最佳實踐,也能在集體責任方面取得進展。 如果沒有合作,風險就會增加。

公眾監督作為解藥

總體而言,培養一種透明、辯論和多學科批評的文化,重點是確保生成式人工智慧造福社會,為潛在危害提供了強有力的解藥。

採用各種視角進行嚴格的公眾監督,重點是防止與人權和民主原則不一致,有助於引導這些強大的技術走向正義,而不是壓迫。

事實證明,根據公共審查建立的生成式人工智慧模型,在設計上具有積極主動的道德規範,比為不受控制的利潤和影響力而優化的不透明系統更值得信賴。

健康的監督和問責很重要。

讓社區做好應對經濟影響的準備

隨著生成式人工智慧使許多創意任務和媒體製作角色自動化,社會

必須盡量減少對失業工人的不利經濟影響和就業中斷。

工作過渡支持

採用生成式人工智慧減少對人類角色的需求的公司有責任資助計劃,透過培訓和就業安置合作夥伴關係幫助受影響的工人過渡到新的職業。

遣散費、調整津貼、學費支援和職業諮詢幫助工人在技術進步改變行業的過程中不被拋在後面。 大公司應該按比例做出貢獻。

合作過渡基金

將跨公司的轉型支持資金集中到特定部門的合作基金中,可以實現成本民主化,同時優化計畫效率。

產業基金不是數百個零散的舉措,而是有效地為所有公司的失業工人提供大規模的再培訓、工作匹配和創業種子資金。

分擔成本培育共享機會。

另類商業模式

創建與工人分享所有權和利潤的替代企業結構,為在自動化中實現包容性生計提供了額外的途徑。

將生成式人工智慧服務於員工擁有的合作社的模型可以直接為人們帶來經濟利益,而不僅僅是外部股東。

這為更多人提供了可持續的生計。

整體而言,社會負有最大的責任,盡量減少產生人工智慧對經濟的破壞,並為流離失所的人口創造機會。 只要小心謹慎,技術進步就能提升一切。

要實現生成式人工智慧的好處,同時規避風險,需要治理方面的謹慎與智慧。

但如果處理得當,生成模型可以帶來顯著的突破,提升人類精神。

您認為社會應該如何在促進人工智慧創新與防止濫用的合理保障之間取得平衡?

使用者在道德地指導這項技術方面應該扮演什麼角色? 我們歡迎您在下面發表觀點。