AI 的剝削:肯尼亞工人訓(xùn)練 ChatGPT,看大量有害內(nèi)容心理受傷
1 月 18 日,美國《時代》雜志發(fā)布調(diào)查報道稱,為了降低 ChatGPT 的危害性,其開發(fā)公司 OpenAI 以每小時不到 2 美元的價格雇傭肯尼亞工人打標(biāo)簽。
這項工作對 OpenAI 至關(guān)重要。ChatGPT 所依賴的 GPT 大型語言模型雖然已展示出令人印象深刻的文本能力,但目前的 GPT-3 還存在很多問題,總是脫口而出暴力、性別歧視和種族主義言論。
為了建立安全系統(tǒng)以控制這種危害,OpenAI 借鑒了 Facebook 等社交媒體的做法。通過給人工智能提供有關(guān)暴力、仇恨言論和性虐待的例子,讓檢測器就可以學(xué)會檢測言論危害,再將檢測器內(nèi)置到 ChatGPT 中,就可以在仇恨言論到達(dá)用戶之前將其過濾掉,還可以幫助從人工智能的訓(xùn)練數(shù)據(jù)集中清除有害文本。
這一切,是通過肯尼亞工人閱讀大量仇恨言論并打上數(shù)據(jù)標(biāo)簽實現(xiàn)的,其中一些員工表示自己已經(jīng)出現(xiàn)心理問題。這些數(shù)據(jù)標(biāo)簽工人的工作條件揭示了科技圖景中的黑暗部分:雖然人工智能很有魅力,但它往往依賴于隱藏的人力勞動,具有破壞性和剝削性。
1 月 18 日,美國《時代》雜志發(fā)布調(diào)查報道稱,為了降低 ChatGPT 的危害性,其開發(fā)公司 OpenAI 以每小時不到 2 美元的價格雇傭肯尼亞工人打標(biāo)簽。
這項工作對 OpenAI 至關(guān)重要。ChatGPT 所依賴的 GPT 大型語言模型雖然已展示出令人印象深刻的文本能力,但目前的 GPT-3 還存在很多問題,總是脫口而出暴力、性別歧視和種族主義言論。
為了建立安全系統(tǒng)以控制這種危害,OpenAI 借鑒了 Facebook 等社交媒體的做法。通過給人工智能提供有關(guān)暴力、仇恨言論和性虐待的例子,讓檢測器就可以學(xué)會檢測言論危害,再將檢測器內(nèi)置到 ChatGPT 中,就可以在仇恨言論到達(dá)用戶之前將其過濾掉,還可以幫助從人工智能的訓(xùn)練數(shù)據(jù)集中清除有害文本。
這一切,是通過肯尼亞工人閱讀大量仇恨言論并打上數(shù)據(jù)標(biāo)簽實現(xiàn)的,其中一些員工表示自己已經(jīng)出現(xiàn)心理問題。這些數(shù)據(jù)標(biāo)簽工人的工作條件揭示了科技圖景中的黑暗部分:雖然人工智能很有魅力,但它往往依賴于隱藏的人力勞動,具有破壞性和剝削性。






























粵公網(wǎng)安備 44030402000745號