Skip to content

Week 1

字数
6299 字
阅读时间
25 分钟

《The Ethics of AI Ethics: An Evaluation of Guidelines》分层次中文概要


一、研究背景与目的

  1. AI 伦理热潮

    • 随着 AI 技术快速发展,政府、企业与学术界纷纷发布伦理指南。
  2. 核心问题

    • 这些指南是否真正影响了研究与应用实践中的决策?

    • 作者旨在系统比较现有指南、揭示其共性与缺漏,并探讨提升效果的途径。


二、研究方法

  1. 半系统性评估

    • 从学术数据库、众包列表等渠道筛选 22 份近五年的主流 AI 伦理指南。

    • 通过表格对比各指南涉及的伦理议题及技术细节。

  2. 评价维度

    • 涵盖议题(隐私、公平、透明等)出现频次

    • 作者性别比例、文本长度、机构背景等元信息。


三、主要发现

  1. 高频重叠议题

    • 隐私保护、公平与非歧视、问责、透明、安全、公益与可持续性——约 80% 指南均提及。

    • 这些议题往往已具备“技术解决方案”(如公平性工具、可解释模型)。

  2. 低频或缺失议题

    • 政治滥用:自动化宣传、深度伪造、选举操纵等。

    • 多样性与劳工问题:AI 行业性别/种族失衡,数据标注“隐形劳动”。

    • 社会生态成本:稀土消耗、能耗、电子垃圾。

    • 民主治理与公共参与:决策透明度、问责机制。

    • 公共-私营合作与资金透明

  3. 技术细节不足

    • 22 份指南中,仅 2 份提供有限的技术实施示例;大多停留在价值口号层面。
  4. 作者与性别视角

    • 女性作者整体占比约 31%;技术导向指南(如 FAT/ML)女性比例更低。

    • 男性主导导致“正义‑规则”式思维突出,而“关怀‑关系”议题被忽视。


四、实践落差分析

  1. 商业利益 vs. 伦理原则

    • 财富和竞争压力推动快速落地,伦理往往被视为“软约束”或公关工具。

    • 软件工程师对伦理准则影响甚微的实验结果:阅读 ACM 伦理守则并未显著改变决策。

  2. “AI 竞赛”叙事风险

    • 中美欧军备与产业竞争放大“先发优势”焦虑,弱化伦理限制。
  3. 伦理执行难点

    • 责任分散、缺乏强制机制、激励错位。

    • 少数成功案例(e.g. Google 员工抵制 Project Maven)也主要因声誉与商业风险驱动。


五、改进路径与理论进展

  1. 技术层面的“微伦理”

    • 将抽象价值桥接到具体实践:如数据集说明书(datasheets)、模型卡(model cards)等可操作模板。
  2. 从规则伦理转向德性伦理

    • 与其增设外部“打勾清单”,不如培育开发者的技术道德美德(诚实、勇气、关怀等)。

    • 倡导在教育、公司文化和社区中培养承担后果的主体性。

  3. 制度与治理配套

    • 引入法律框架、独立审计、申诉与补偿机制。

    • 强化公众意识与跨学科合作,避免伦理被边缘化。


六、结论

  • 现状:AI 伦理指南数量繁多,但执行力不足,既缺技术可行性也缺强制力。

  • 出路

    1. 细化技术指引、弥合伦理与工程落差;

    2. 通过德性伦理提升个人与组织的内生责任;

    3. 建立法律与社会多方共治的刚性与柔性并存机制。

  • 最终目标:让 AI 伦理从“纸面宣言”转变为“可验证、可执行、可持续”的行动准则,真正引导 AI 造福社会。

Week 2

《Cooperative AI: machines must learn to find common ground》分层次中文概要


一、文章核心

  • 主旨:呼吁将“合作智能”置于 AI 研究与治理的中心,使机器能在利益不完全一致时仍推动互利共同行动,以应对气候变化等人类重大协作难题。

  • 论点:孤立、零和导向的传统 AI 方法不足以支撑复杂社会系统,亟须发展能够理解、沟通并遵守社会规范的 Cooperative AI。


二、为何需要 Cooperative AI

  1. 现存局限

    • 典型 AI 问题设置为单智能体或两人零和游戏(棋类、扑克),不符合现实多主体、利害交织的情形。
  2. 社会风险

    • 自动驾驶、推荐系统若缺乏协同能力,可能阻碍交通效率、加剧信息极化等。
  3. 协作价值

    • 最大收益往往来自多主体协同(如车与行人、机器人与工人),而非孤立自主。

三、合作智能的四大要素

要素说明
理解 (Understanding)预测他人行为、偏好与信念带来的后果
沟通 (Communication)准确且可验证地传递意图与信息
承诺 (Commitment)在合作需要时作出可信承诺、避免背叛
规范/制度 (Norms & Institutions)通过共享规则强化上述三点,维持合作

四、三大研究集群

  1. AI–AI 合作

    • 从纯合作游戏(Hanabi、机器人足球)迈向兼具对立与共利的复杂博弈(Diplomacy)。

    • 难点:谈判、信任、谎言检测、契约执行与规范形成。

  2. AI–人合作

    • 关键任务:

      • 偏好学习与价值对齐(Alignment)

      • 自然语言/手势理解 & 即席团队协作

      • 可解释性与安全性

    • 目标:AI 不替代而是增强人类(“会用 AI 的放射科医生将取代不用 AI 的医生”)。

  3. AI 促进人–人合作

    • 改进线上社区、众包与协作平台(维基、社交媒体)

    • 策略:更优信息路由、信誉系统、促进共识的算法设计

    • 谨防:AI 同时可能加剧两极化、上瘾与错误信息传播。


五、跨学科与方法论倡议

  1. 借鉴合作科学

    • 与心理学、经济学、政治学、法学、社会学等合作研究承诺、制度与文化差异。
  2. 基准与竞赛

    • 借鉴 Axelrod 的囚徒困境锦标赛、ImageNet 在视觉领域的作用,开发覆盖多场景的合作 AI 基准环境与评测。
  3. 社区建设

    • NeurIPS 2020 “Cooperative AI” workshop

    • 成立 Cooperative AI Foundation:资助研究、会议、数据集与奖励。


六、结论与展望

  • 合作危机即人类危机:气候变化、全球公共卫生、信息失真等均是协作不足的产物。

  • 时间窗口:AI 潜力正迅速扩张,今日对合作导向的微小投入,未来可能成为支撑全球协作的关键杠杆。

  • 总体愿景:让 AI 学会与人类及彼此“找到共同立场”,成为解决人类协作难题的加速器,而非障碍。

Week 3

《AI 与社会:伦理、信任与合作》分层次概要


一、引言:AI 伦理的核心关切

  1. 风险焦虑:自主车辆、算法推荐等 AI 可能伤害个人甚至整个人类。

  2. 研究焦点转移:AI 伦理学迅速崛起,探究如何设计、部署并让 AI 以伦理方式决策。

  3. 伦理功能:在“个人利益—社会福祉”之间寻求平衡,是伦理学的根本任务。


二、囚徒困境的再解读:效用函数与信任缺位

  1. 经典模型:个体理性(背叛)导致集体最差 (1,1)。

  2. 作者观点:坏结局源于模型忽略“信任/可信度”变量。

  3. 改进思路

    • 为“合作”添加奖励、为“背叛”加罚;

    • 将信任显式写入效用,可使理性选择转向合作。

  4. 结论:若效用最大化没带来总体最优,应反思模型而非归咎于理性冲突。


三、信任与可信度:定义、判断与价值

  1. 信任定义8:在预期他人善意/能力下,愿意接受自身脆弱。

  2. 信任作用

    • 简化世界模型,降低计划与行动复杂度;

    • 通过“可依赖性”提升效率(例:交通灯、登山绳)。

  3. 评估可信度7:能力、善意、诚信等维度;经验与声誉是主要依据。

  4. 边际成本收益:警觉成本低于合作收益 → 信任带来净正效益。


四、“伦理‑信任‑合作”(ETC)框架

  1. 链条逻辑

    • 伦理原则 → 培养可信度 → 产生信任 → 激活合作 → 社会资源与繁荣。
  2. 正和与负和2,9,10:社会依赖正和合作;信任侵蚀则威胁社会稳定。

  3. 主体多样性

    • 个人置身多个社群,价值或冲突需抉择;

    • 公司、政府等法人与 AI 皆成“人工智能体”,需纳入伦理约束。

  4. 过度/不足信任5:新技术的双重陷阱,需要动态平衡。


五、数据、监控与隐私:信任考题的当代表达

  1. 现状:大规模收集、聚合、贩售个人数据;场景从便利到危险不等。

  2. 信任缺口

    • 书店记忆购买记录属有限信任;

    • 数据经纪商缺乏社会信任与有效监管。

  3. 必要性辩证:公共卫生/国家安全场景需广泛数据 → 高度易滥用。

  4. 可信治理示例:HIPAA、FERPA、GDPR 等长期迭代的严格法规。

  5. 关键提问

    • 公民应被允许信任什么?

    • 数据收集方如何证明并担保其可信度?


六、结论与启示

  1. 类比气候危机:忽视信息过程对“信任生态”的影响,或致社会合作崩塌。

  2. 系统性任务:数据隐私之外,偏见公平、AI 安全等议题同样需用“信任—可信度”视角审视。

  3. 未来方向

    • 在复杂多主体交互中嵌入信任度衡量与激励;

    • 建立跨主体、跨层级的可信度验证与监管机制,确保 AI 与法人行为可被信赖,从而促进持续的正和合作。

速读要点:〈Artificial Intelligence and the Economics of Decision‑Making〉

  • 研究目标:回答两大核心问题——

    1. AI 应遵循哪种决策理论?

    2. 如何在实际系统中落地?

  • 三项主要贡献

    • 论证经济学的**期望效用理论 (EUT)**可为 AI 提供统一的决策框架,帮助处理工具性目标、效用不稳定及多主体协调难题。

    • 指出坚持 EUT 使当下 AI 被局限在“小世界”窄域应用中,对齐问题多表现为具体安全议题。

    • 提示经济学可从 AI 实践汲取:程序性理性、计算可行性与非均衡决策建模等方面的新思想。

  • EUT 在 AI 中的角色与示例

    • 深度学习将损失函数视为负效用;推荐系统应用 CES、Cobb‑Douglas 等“神经效用函数”;强化学习(MDP/RL)本质上是序贯效用最大化。

    • 挑战:实验悖论(Ellsberg)、Knight 不确定性、计算/信息成本导致的有界理性

  • 对齐问题的三大经济学视角

    1. 工具性目标:子目标放大(纸夹极化);可用 satisficing、CIRL/IRL 等方法缓解。

    2. 效用函数不稳定:wireheading/自我欺骗与自我修改;价值强化学习、AMA 等为潜在方案。

    3. 效用函数协调:多 AI/人‑机集体需机制设计、博弈论与 MARL 来解决非定常环境下的集体理性。

  • 关键结论

    • 在窄域“小世界”中,EUT 足以支撑 AI 决策,对齐焦点转向安全与监管

    • 未来跨学科协同:将成本、制度、学习过程纳入效用模型,实现更稳健的人‑机共生决策体系。

Week 4

文章核心与贡献
这篇综述把「人类‑在‑环」机器学习(Human‑in‑the‑loop ML, HITL‑ML)看作一个大伞,系统梳理了六种与“人‑机协作”相关的技术流派,并澄清它们常被混用的概念边界与相互联系。作者的目标是:给出统一定义、比较控制权分配差异,并提示如何将这些方法串联成对人友好的 AI 研发流程。


1. 三大主要学习范式(谁掌控学习?)

范式控制权人的角色典型场景关键差异
主动学习 Active Learning (AL)机器为主,向人提问标签“神谕者”大量无标签数据、标注昂贵机器选“最有价值”样本请人标注,提高效率
交互式机器学习 Interactive ML (IML)人‑机共享交互伙伴、数据/特征提供者图像分割、文本筛选等需要大量人类判断的任务人决定何时、如何提供信息;界面设计与人因评估尤为重要
机器教学 Machine Teaching (MT)人为主“教师”,精心挑选示例域专家少、数据稀缺或需可解释性时教师设计最小/最佳示例序列;可扩展到“机器教机器”

2. 相关辅助手段

  • 课程学习 Curriculum Learning (CL)
    借鉴教育学“由易到难”,先喂“简单”样本,再逐步增加难度,以加快收敛、抵抗噪声。核心在于如何度量难度、安排节奏,可人工也可自动化(如自适应难度或强化学习教师)。

  • 可解释人工智能 Explainable AI (XAI)
    当模型影响重大决策时,需要向人说明“为什么这么判定”。文章概览了局部/全局解释、深度网络可解释技术,以及构建可解释系统的四条实践指南。


3. 向“可用”与“有用”AI迈进

作者指出,人‑机协作不应止步于训练阶段:

  • Usable AI 关注工具本身和其学习流程的易用性(数据可用性、界面友好度等);

  • Useful AI 更进一步,要求系统在社会‑伦理‑文化层面真正解决用户问题、赢得信任(“可信 AI”)。


4. 综述对实践的启示

  1. 按任务选范式

    • 数据多但无标签 → AL;

    • 需频繁迭代、界面友好 → IML;

    • 标签极少且专家丰富 → MT/CL 组合。

  2. 多范式可串联:先用 CL 制定教学顺序,再在难例附近启用 AL 精修;或在 IML 过程中嵌入 XAI 提升透明度。

  3. 始终考虑人因:无论算法多强,都要让目标用户“理解‑使用‑信任”模型的决策链。


一句话总结:本文像是 HITL‑ML 的“路线图”:先分清谁在指挥(AL、IML、MT),再配上教学节奏(CL)、说明书(XAI),最终做成既好用又有用的智能系统。

Week 9

一、文章在讲什么?
作者把当今社会普遍存在的 “统计文盲” 现象称作 集体统计失读症:医生、患者、记者乃至政客常常看不懂健康数据,或在不自知的情况下得出错误结论,进而导致恐慌、误治和资源浪费。文章先用三大案例—— 1995 年英国避孕药“血栓恐慌”、乳腺癌筛查假阳性、朱利安尼引用前列腺癌生存率——展示误解的危害,接着剖析成因:

  1. 信息表达不透明:只报 100% 相对风险增加、25% 相对风险降低,却不报绝对数字;用生存率而非死亡率;给效益报大数字、给副作用报小数字。

  2. 医患传统心理:医生崇尚“确定性”与父权式信任,患者渴望“零风险”,都轻视统计;利益冲突和媒体追求轰动又进一步放大偏差。


二、作者提出的核心方法(如何让人看懂健康统计)

痛点对策 / 方法简释与示例
相对风险夸大效益报告绝对风险 (Absolute Risk)“乳腺癌死亡率从 5/1000 降至 4/1000”,而不是“降低 20%”。
条件概率让人算不出结果改用自然频数 (Natural Frequencies)把“敏感度 90%、假阳性 9%”翻成“1000 人中 10 有病,其中 9 人测阳性;990 人无病,其中 89 人测阳性”,医生正确解读率从 21% 升到 87%。
生存率误导“活得更久”用死亡率 (Mortality) 比较疗效前列腺癌美国 vs 英国 5 年生存率差异大,但死亡率几乎相同。
效益、危害“货币不一致”同一度量同时呈现既报绝对效益,也用绝对数字报副作用,避免“错配框架”。
大众缺乏基本概念最小统计素养清单会问“基线风险是多少?”“时间跨度多长?”“绝对有多少人受益/受害?”等。
长远策略把统计思维前移到义务教育和医学院,用离散频数、积木、可视化软件等“看得见、摸得着”的方式培养概率直觉。

三、实践启示(如何用起来)

  1. 写科普/病患说明书:先给绝对数字,再补充相对风险;用 1000 人频数条形图代替百分比饼图。

  2. 医患沟通:用三句话回答检查或治疗成效:①先说基线风险,②说明检查误差(假阳、假阴)并用自然频数举例,③同时给出效益和副作用的绝对人数。

  3. 媒体报道:报道任何医学突破时,“X% 降低”前务必给出“从 A/1000 到 B/1000”。

  4. 教育与培训:把“如何读懂一张风险表”列为中学生健康课和医学生必修实验,强调动手转换自然频数。


一句话总结
作者的处方很直接:**把复杂概率翻译成人人听得懂的“绝对人数+自然频数”,并在学校和医学院把这种“风险翻译术”当作读写算同等重要的基本技能去教。**只有这样,医生能给出明白账,患者才能真正做“知情决策”。

文章核心
作者提出一套 通用(非疾病特定)的人工智能框架,用来模拟临床医生的连续决策,既可当作政策‑支付模拟器,也能作为“会思考的医生”嵌入真实电子病历(EHR)系统。


一、为什么要做这件事?

  • 医疗信息量爆炸、选项繁杂,医生很难凭直觉在多次就诊中持续做最优选择。

  • 现行“按服务计费”或“一口价”模式要么成本高、要么疗效差,亟需更聪明的决策工具。


二、框架怎么搭?——“三层”结构一目了然

层级关键词作用你可以把它想成…
患者代理 (Patient Agent)个体化 Markov 决策过程 (MDP)用 EHR 训练转移概率,预测病情随治疗/不治如何转变“每位病人都有自己的棋盘格”
医生代理 (Physician Agent)动态决策网络 (DDN) + 部分可观测 MDP (POMDP)维持对病人健康信念状态,在信息缺失时也能作决策“脑内模拟器”
多智能体系统 (MAS)患者‑医生互动,可扩展到多个医生、政策或资源限制观测、行动、再规划的闭环“虚拟诊室”

算法循环:建立病人‑MDP → 每次就诊过滤新证据 → 搜索 MDP 决策树 → 选当前最佳动作 → 更新信念 → 循环直至停治。


三、模型里最重要的“招数”

  1. 三种转移模型解决“治疗后会咋样?”

    • 0阶:只看总体平均;

    • 1阶:看上一次变化;

    • 全局:看自基线以来总趋势(最稳健)。

  2. 多种决策策略做对比

    • MDP 最优策略:综合未来多步收益‑成本;

    • Max Improve / 随机策略:只看下一步概率;

    • Raw Effect / Hard Stop:模拟现实两种付款模式。

  3. 效用函数 = CPUC(Cost Per Unit Change)

    • 同时惩罚高费用、奖励高改善;可通过“Outcome Scaling Factor”调节疗效权重,找到成本‑效果最优点。

四、他们怎么验证?

  • 用美国 Centerstone EHR 中 500 名抑郁及多慢病患者的真实随访数据做仿真。

  • 结果:全局‑MDP 策略在有缺失数据的情况下, 平均 CPUC $189,而传统按次计费模拟需 $497;同时疗效(CDOI‑ORS 变化)提升约 30–35%。

  • 调节 Outcome Scaling 后,甚至能 多 50% 疗效、成本减半


五、我该怎么理解这套方法?

  • 把连环诊疗视为“下棋”:每步(处方/停治)都会影响棋盘状态(病情),AI 用 MDP 提前推演多步,再选此刻最划算的棋。

  • 信念状态 = 医生的“临床直觉”:POMDP 允许在实验室数据缺口、患者失访时仍能给出概率化判断。

  • CPUC 像网购“性价比”:同样花费,谁让病情好转更多就优先;也能按需求给“疗效”更大权重。


六、局限与未来方向

  • 需大量高质量 EHR 数据训练转移概率;

  • 现阶段只测“治疗 or 不治”二选一,未来可扩展多药物、资源限制与患者依从性;

  • 个性化 MDP、遗传信息、实时优化阈值等仍在路上。


一句话结论

作者用 MDP/POMDP + 多智能体,把“医生多次看诊并权衡成本‑疗效”的过程数字化并提前模拟,证明 AI 既能省钱又能让患者更好,为未来“可自我学习的临床决策支持系统”奠定了方法学基础。

贡献者

文件历史