關于“大學生對人工智能倫理的認知與態(tài)度調研”的調查問卷
你好,我們正在進行一項關于“大學生對人工智能倫理的認知與態(tài)度”的調查問卷,懇請你用幾分鐘時間幫忙填答。本問卷實行匿名制,所有數據僅用于調研,請放心填寫。題目選項無對錯之分,請按自己的實際情況填寫。非常感謝你的配合與參與!
1. 你的性別
女
男
2. 你所在的年級
大一
大二
大三
大四
研究生
3. 你的專業(yè)
哲學
經濟學
法學
教育學
文學
歷史學
理學
工學
農醫(yī)學
管理學
藝術學
4. 你是否了解“人工智能倫理”的基本概念
非常了解
大致了解
聽說過但不清楚具體內容
完全不了解
5. 你主要通過哪些渠道獲取人工智能倫理相關信息
學校課程
學術講座或論壇
社交媒體(微博、知乎等)
新聞媒體
書籍、論文
其他
6. 你對以下人工智能倫理問題的熟悉程度如何
非常熟悉
比較熟悉
一般了解
不太熟悉
完全不了解
算法歧視
隱私保護
責任歸屬問題
7. 請根據你的實際經歷或觀察,回答以下問題:1→5 表示 從未遇到→頻繁遇到
1
2
3
4
5
求職平臺算法推薦偏好特定性別/院校背景
教育類APP根據經濟狀況推送差異化內容
社交媒體對特定群體言論的限流或標簽化
信貸平臺因地域/學校降低信用評分
電商平臺基于消費能力展示不同價格
8. 對于以下關于“算法歧視”的描述,你的看法是:1→5 表示 非常不同意→非常同意
1
2
3
4
5
算法產生的結果對某個人或個體存在歧視性的判定或評估
數據偏見必然導致算法歧視(如性別、種族、地域歧視)
算法歧視是當前人工智能應用中最嚴重的問題
普通用戶有能力發(fā)現(xiàn)算法歧視現(xiàn)象
算法歧視比人為歧視更隱蔽且難以察覺
9. 你認為解決算法歧視問題的關鍵措施是
提高算法透明度
加強數據來源多樣性
建立倫理審查機制
完善法律法規(guī)
公眾監(jiān)督與反饋渠道
其他
10. 對于以下關于“隱私保護”的描述,你的看法是:1→5 表示 非常不同意→非常同意
1
2
3
4
5
大部分用戶在使用時清楚知道AI技術可能如何收集和使用自己的個人數據(如人臉識別、社交平臺推薦)
犧牲部分隱私以換取便利是值得的
企業(yè)應默認關閉用戶數據收集功能
政府應禁止AI企業(yè)存儲敏感個人信息
用戶有權要求徹底刪除被AI系統(tǒng)使用過的數據
11. 你是否會采取以下隱私保護行為:1→5 表示 從不→總是
1
2
3
4
5
閱讀AI產品的隱私條款
關閉APP的數據追蹤權限
使用虛擬身份注冊AI服務
向平臺投訴數據濫用行為
12. 你認為人工智能應用中誰應承擔隱私保護的主要責任
企業(yè)
技術開發(fā)者
政府監(jiān)管部門
用戶自身
其他
13. 你認為保護隱私的有效措施是
強化數據加密技術
限制企業(yè)數據收集范圍
提高用戶知情權與控制權
加大違法處罰力度
其他
14. 請根據您的了解程度,對以下責任歸屬相關概念進行評分:1→5 表示 完全不了解→非常了解
1
2
3
4
5
“黑箱算法”對責任追溯的影響
現(xiàn)行法律對AI事故的覆蓋范圍
多方協(xié)作系統(tǒng)中的責任分攤原則
自動駕駛事故中的倫理困境
15. 對于以下關于“責任歸屬問題”的描述。你的看法是:1→5 表示 非常不同意→非常同意
1
2
3
4
5
現(xiàn)有法律足以界定人工智能相關責任
應該為人工智能系統(tǒng)設立獨立的“倫理委員會”或“責任追溯機制”
人工智能倫理責任應通過保險機制轉移
AI開發(fā)者應對系統(tǒng)所有潛在風險負責
16. 當人工智能系統(tǒng)引發(fā)事故(如自動駕駛事故、醫(yī)療誤診),責任應如何劃分
開發(fā)者承擔主要責任
使用者承擔風險
政府監(jiān)管缺位導致
多方共同承擔責任
其他
關閉
更多問卷
復制此問卷