首頁
1
最新消息
2
智產新知
3
〈Sony AI發表可評斷AI是否具偏見的測試資料集「FHIBE」 採全球80國「基於同意」影像打造〉4
https://www.championbloc.com/ CBA創品國際團隊
CBA創品國際團隊 408 台中市文心路一段218號16樓之1
BMW 近期申請的一項新專利,一種只會用在 BMW 車輛上的專屬螺絲,但可能讓私人維修廠在維修時面臨更高門檻。但此消息一出,在汽車產業內引起不少反彈,也引起網友群起嘲諷並 “集思廣益” 各種”解決方案”!BMW 申請的這款新螺絲,其螺絲頭設計成 BMW 品牌的標誌造型,這代表它無法使用一般的套筒或內六角工具拆卸,必須搭配專用工具,才能對準 BMW 標誌的凹槽進行作業。在這項設計尚未實際導入量產車前,就已引起維修業界質疑。有維修專家認為,這類設計在歐洲恐怕難以通過法規檢驗,因為歐盟現行法律明確保障獨立維修廠有權維修與保養車輛。專家指出,若車廠要求使用特殊工具,至少必須以合理且容易取得的方式,向獨立維修廠提供相關工具,否則,可能構成限制競爭的行為。還有業內人士說了重話:” 如果一家維修廠連購買拆卸螺絲所需的工具都做不到,那我會認為這是限制競爭的行為。這件事理應交由法院審理,但結果並不難預測。這對 BMW 來說是短視近利的做法,他們自己也應該很清楚。“歐盟法規怎麼看獨立維修權?根據歐盟最新通過的「維修權利」(Right to Repair)指令(2024/1799),製造商必須以合理價格,向獨立維修業者提供零件、工具與技術資訊,並防止任何刻意阻礙維修的設計手法。該法規的目標,是讓維修變得更簡單、更便宜,同時促進循環經濟並減少浪費。這項立法也明確規定,授權維修廠與獨立維修廠在維修與保養上,應享有同等條件,包括價格透明度與技術資訊的取得權。所以BMW 這個特規螺絲頭距離派上用場,可能還有一段路要走,或是把專利圖束之高閣!(資料來源:InCar癮車報) https://www.championbloc.com/hot_527988.html 〈BMW「特規螺絲」專利引發爭議,讓很多業內人士不爽!〉 2025-12-24 2026-12-24
CBA創品國際團隊 408 台中市文心路一段218號16樓之1 https://www.championbloc.com/hot_527988.html
CBA創品國際團隊 408 台中市文心路一段218號16樓之1 https://www.championbloc.com/hot_527988.html
https://schema.org/EventMovedOnline https://schema.org/OfflineEventAttendanceMode
2025-12-24 http://schema.org/InStock TWD 0 https://www.championbloc.com/hot_527988.html

相關連結:https://tech.udn.com/tech/story/123454/9128258?from=udn-inde ...


Sony AI 稍早發表了一套名為「FHIBE 」 (以人為本的公平圖像基準,Fair Human-Centric Image Benchmark) ,標榜公平、無偏見的的全新AI測試資料集。

Sony將其描述為「首個公開可用、具全球多樣性且『基於同意』 (consent-based)基礎打造的人類影像資料集」,專門用於評估電腦視覺 (computer vision) 識別過程中是否存在偏見。
簡單來說,此資料集可用於測試現今的AI模型 是否公平地對待不同人群。而Sony得到的初步結論:沒有任何一家公司的資料集能完全符合其基準。


【強調「基於同意」打造,對比網路爬蟲數據】


Sony強調,「FHIBE」目標解決AI產業長期面臨的倫理與偏見挑戰。該資料集包含來自80多個國家、近2000名志願者的影像。

此資料集最關鍵的特性,在於所有影像均是在「取得同意」情況下分享,與目前業界普遍採用「網路爬蟲」 (web scraping) 大量抓取公開數據的做法截然不同,而「FHIBE」的參與者也有權可以隨時要求移除其影像。

此外,這些照片還包含了豐富的註釋 (annotations),詳細標記了人口統計特徵、身體特徵、環境因素,甚至包含相機設定等細節。


【測試結果:證實既有AI存在偏見、發現新影響因素】


此工具的測試結果,證實先前已被記錄的偏見,確實存在於現今的AI模型中。但Sony表示,「FHIBE」能更進一步判斷導致偏見的潛在因素。

例如,研究發現某些模型在處理使用「she/her/hers」 (女性代名詞) 的人群時,準確性較低。而「FHIBE」還進一步顯示,「髮型多樣性」 (greater hairstyle variability) 是過去在分析此類偏見時被忽視的關鍵因素之一,進而造成AI識別誤判情形。


【職業刻板印象與毒性回應】


而「FHIBE」也發現,當被問及受試者職業的「中性問題」時,現今的AI模型會強化刻板印象 (reinforced stereotypes)。測試模型尤其對「特定代名詞與族裔群體」存在偏見,例如更容易將他們描述為性工作者、毒販或小偷。

更嚴重的是,當被提示某人「犯了什麼罪行」時,模型有時會對非洲或亞洲血統的個體、膚色較深者,以及使用「he/him/his」(男性代名詞) 的個體,產生「更高比例的毒性回應 (toxic responses)」,亦即對此類人會形成刻板的偏見印象。


【證明合乎倫理的資料收集可行性】


Sony AI表示,「FHIBE」證明了「合乎倫理、具多樣性且公平」的資料收集可被實現。此工具目前已向大眾開放,未來也將持續更新,而相關研究論文也已經發表在《自然》(Nature)期刊上。

(資料來源:聯合新聞網)
(原文出處:mashdigi授權聯合新聞網)

上一個 回列表 下一個