Week 1
《The Ethics of AI Ethics: An Evaluation of Guidelines》分层次中文概要
一、研究背景与目的
AI 伦理热潮
- 随着 AI 技术快速发展,政府、企业与学术界纷纷发布伦理指南。
核心问题
这些指南是否真正影响了研究与应用实践中的决策?
作者旨在系统比较现有指南、揭示其共性与缺漏,并探讨提升效果的途径。
二、研究方法
半系统性评估
从学术数据库、众包列表等渠道筛选 22 份近五年的主流 AI 伦理指南。
通过表格对比各指南涉及的伦理议题及技术细节。
评价维度
涵盖议题(隐私、公平、透明等)出现频次
作者性别比例、文本长度、机构背景等元信息。
三、主要发现
高频重叠议题
隐私保护、公平与非歧视、问责、透明、安全、公益与可持续性——约 80% 指南均提及。
这些议题往往已具备“技术解决方案”(如公平性工具、可解释模型)。
低频或缺失议题
政治滥用:自动化宣传、深度伪造、选举操纵等。
多样性与劳工问题:AI 行业性别/种族失衡,数据标注“隐形劳动”。
社会生态成本:稀土消耗、能耗、电子垃圾。
民主治理与公共参与:决策透明度、问责机制。
公共-私营合作与资金透明。
技术细节不足
- 22 份指南中,仅 2 份提供有限的技术实施示例;大多停留在价值口号层面。
作者与性别视角
女性作者整体占比约 31%;技术导向指南(如 FAT/ML)女性比例更低。
男性主导导致“正义‑规则”式思维突出,而“关怀‑关系”议题被忽视。
四、实践落差分析
商业利益 vs. 伦理原则
财富和竞争压力推动快速落地,伦理往往被视为“软约束”或公关工具。
软件工程师对伦理准则影响甚微的实验结果:阅读 ACM 伦理守则并未显著改变决策。
“AI 竞赛”叙事风险
- 中美欧军备与产业竞争放大“先发优势”焦虑,弱化伦理限制。
伦理执行难点
责任分散、缺乏强制机制、激励错位。
少数成功案例(e.g. Google 员工抵制 Project Maven)也主要因声誉与商业风险驱动。
五、改进路径与理论进展
技术层面的“微伦理”
- 将抽象价值桥接到具体实践:如数据集说明书(datasheets)、模型卡(model cards)等可操作模板。
从规则伦理转向德性伦理
与其增设外部“打勾清单”,不如培育开发者的技术道德美德(诚实、勇气、关怀等)。
倡导在教育、公司文化和社区中培养承担后果的主体性。
制度与治理配套
引入法律框架、独立审计、申诉与补偿机制。
强化公众意识与跨学科合作,避免伦理被边缘化。
六、结论
现状:AI 伦理指南数量繁多,但执行力不足,既缺技术可行性也缺强制力。
出路:
细化技术指引、弥合伦理与工程落差;
通过德性伦理提升个人与组织的内生责任;
建立法律与社会多方共治的刚性与柔性并存机制。
最终目标:让 AI 伦理从“纸面宣言”转变为“可验证、可执行、可持续”的行动准则,真正引导 AI 造福社会。
Week 2
《Cooperative AI: machines must learn to find common ground》分层次中文概要
一、文章核心
主旨:呼吁将“合作智能”置于 AI 研究与治理的中心,使机器能在利益不完全一致时仍推动互利共同行动,以应对气候变化等人类重大协作难题。
论点:孤立、零和导向的传统 AI 方法不足以支撑复杂社会系统,亟须发展能够理解、沟通并遵守社会规范的 Cooperative AI。
二、为何需要 Cooperative AI
现存局限
- 典型 AI 问题设置为单智能体或两人零和游戏(棋类、扑克),不符合现实多主体、利害交织的情形。
社会风险
- 自动驾驶、推荐系统若缺乏协同能力,可能阻碍交通效率、加剧信息极化等。
协作价值
- 最大收益往往来自多主体协同(如车与行人、机器人与工人),而非孤立自主。
三、合作智能的四大要素
要素 | 说明 |
---|---|
理解 (Understanding) | 预测他人行为、偏好与信念带来的后果 |
沟通 (Communication) | 准确且可验证地传递意图与信息 |
承诺 (Commitment) | 在合作需要时作出可信承诺、避免背叛 |
规范/制度 (Norms & Institutions) | 通过共享规则强化上述三点,维持合作 |
四、三大研究集群
AI–AI 合作
从纯合作游戏(Hanabi、机器人足球)迈向兼具对立与共利的复杂博弈(Diplomacy)。
难点:谈判、信任、谎言检测、契约执行与规范形成。
AI–人合作
关键任务:
偏好学习与价值对齐(Alignment)
自然语言/手势理解 & 即席团队协作
可解释性与安全性
目标:AI 不替代而是增强人类(“会用 AI 的放射科医生将取代不用 AI 的医生”)。
AI 促进人–人合作
改进线上社区、众包与协作平台(维基、社交媒体)
策略:更优信息路由、信誉系统、促进共识的算法设计
谨防:AI 同时可能加剧两极化、上瘾与错误信息传播。
五、跨学科与方法论倡议
借鉴合作科学
- 与心理学、经济学、政治学、法学、社会学等合作研究承诺、制度与文化差异。
基准与竞赛
- 借鉴 Axelrod 的囚徒困境锦标赛、ImageNet 在视觉领域的作用,开发覆盖多场景的合作 AI 基准环境与评测。
社区建设
NeurIPS 2020 “Cooperative AI” workshop
成立 Cooperative AI Foundation:资助研究、会议、数据集与奖励。
六、结论与展望
合作危机即人类危机:气候变化、全球公共卫生、信息失真等均是协作不足的产物。
时间窗口:AI 潜力正迅速扩张,今日对合作导向的微小投入,未来可能成为支撑全球协作的关键杠杆。
总体愿景:让 AI 学会与人类及彼此“找到共同立场”,成为解决人类协作难题的加速器,而非障碍。
Week 3
《AI 与社会:伦理、信任与合作》分层次概要
一、引言:AI 伦理的核心关切
风险焦虑:自主车辆、算法推荐等 AI 可能伤害个人甚至整个人类。
研究焦点转移:AI 伦理学迅速崛起,探究如何设计、部署并让 AI 以伦理方式决策。
伦理功能:在“个人利益—社会福祉”之间寻求平衡,是伦理学的根本任务。
二、囚徒困境的再解读:效用函数与信任缺位
经典模型:个体理性(背叛)导致集体最差 (1,1)。
作者观点:坏结局源于模型忽略“信任/可信度”变量。
改进思路:
为“合作”添加奖励、为“背叛”加罚;
将信任显式写入效用,可使理性选择转向合作。
结论:若效用最大化没带来总体最优,应反思模型而非归咎于理性冲突。
三、信任与可信度:定义、判断与价值
信任定义8:在预期他人善意/能力下,愿意接受自身脆弱。
信任作用:
简化世界模型,降低计划与行动复杂度;
通过“可依赖性”提升效率(例:交通灯、登山绳)。
评估可信度7:能力、善意、诚信等维度;经验与声誉是主要依据。
边际成本收益:警觉成本低于合作收益 → 信任带来净正效益。
四、“伦理‑信任‑合作”(ETC)框架
链条逻辑
- 伦理原则 → 培养可信度 → 产生信任 → 激活合作 → 社会资源与繁荣。
正和与负和2,9,10:社会依赖正和合作;信任侵蚀则威胁社会稳定。
主体多样性:
个人置身多个社群,价值或冲突需抉择;
公司、政府等法人与 AI 皆成“人工智能体”,需纳入伦理约束。
过度/不足信任5:新技术的双重陷阱,需要动态平衡。
五、数据、监控与隐私:信任考题的当代表达
现状:大规模收集、聚合、贩售个人数据;场景从便利到危险不等。
信任缺口:
书店记忆购买记录属有限信任;
数据经纪商缺乏社会信任与有效监管。
必要性辩证:公共卫生/国家安全场景需广泛数据 → 高度易滥用。
可信治理示例:HIPAA、FERPA、GDPR 等长期迭代的严格法规。
关键提问
公民应被允许信任什么?
数据收集方如何证明并担保其可信度?
六、结论与启示
类比气候危机:忽视信息过程对“信任生态”的影响,或致社会合作崩塌。
系统性任务:数据隐私之外,偏见公平、AI 安全等议题同样需用“信任—可信度”视角审视。
未来方向:
在复杂多主体交互中嵌入信任度衡量与激励;
建立跨主体、跨层级的可信度验证与监管机制,确保 AI 与法人行为可被信赖,从而促进持续的正和合作。
速读要点:〈Artificial Intelligence and the Economics of Decision‑Making〉
研究目标:回答两大核心问题——
AI 应遵循哪种决策理论?
如何在实际系统中落地?
三项主要贡献
论证经济学的**期望效用理论 (EUT)**可为 AI 提供统一的决策框架,帮助处理工具性目标、效用不稳定及多主体协调难题。
指出坚持 EUT 使当下 AI 被局限在“小世界”窄域应用中,对齐问题多表现为具体安全议题。
提示经济学可从 AI 实践汲取:程序性理性、计算可行性与非均衡决策建模等方面的新思想。
EUT 在 AI 中的角色与示例
深度学习将损失函数视为负效用;推荐系统应用 CES、Cobb‑Douglas 等“神经效用函数”;强化学习(MDP/RL)本质上是序贯效用最大化。
挑战:实验悖论(Ellsberg)、Knight 不确定性、计算/信息成本导致的有界理性。
对齐问题的三大经济学视角
工具性目标:子目标放大(纸夹极化);可用 satisficing、CIRL/IRL 等方法缓解。
效用函数不稳定:wireheading/自我欺骗与自我修改;价值强化学习、AMA 等为潜在方案。
效用函数协调:多 AI/人‑机集体需机制设计、博弈论与 MARL 来解决非定常环境下的集体理性。
关键结论
在窄域“小世界”中,EUT 足以支撑 AI 决策,对齐焦点转向安全与监管。
未来跨学科协同:将成本、制度、学习过程纳入效用模型,实现更稳健的人‑机共生决策体系。
Week 4
文章核心与贡献
这篇综述把「人类‑在‑环」机器学习(Human‑in‑the‑loop ML, HITL‑ML)看作一个大伞,系统梳理了六种与“人‑机协作”相关的技术流派,并澄清它们常被混用的概念边界与相互联系。作者的目标是:给出统一定义、比较控制权分配差异,并提示如何将这些方法串联成对人友好的 AI 研发流程。
1. 三大主要学习范式(谁掌控学习?)
范式 | 控制权 | 人的角色 | 典型场景 | 关键差异 |
---|---|---|---|---|
主动学习 Active Learning (AL) | 机器为主,向人提问 | 标签“神谕者” | 大量无标签数据、标注昂贵 | 机器选“最有价值”样本请人标注,提高效率 |
交互式机器学习 Interactive ML (IML) | 人‑机共享 | 交互伙伴、数据/特征提供者 | 图像分割、文本筛选等需要大量人类判断的任务 | 人决定何时、如何提供信息;界面设计与人因评估尤为重要 |
机器教学 Machine Teaching (MT) | 人为主 | “教师”,精心挑选示例 | 域专家少、数据稀缺或需可解释性时 | 教师设计最小/最佳示例序列;可扩展到“机器教机器” |
2. 相关辅助手段
课程学习 Curriculum Learning (CL)
借鉴教育学“由易到难”,先喂“简单”样本,再逐步增加难度,以加快收敛、抵抗噪声。核心在于如何度量难度、安排节奏,可人工也可自动化(如自适应难度或强化学习教师)。可解释人工智能 Explainable AI (XAI)
当模型影响重大决策时,需要向人说明“为什么这么判定”。文章概览了局部/全局解释、深度网络可解释技术,以及构建可解释系统的四条实践指南。
3. 向“可用”与“有用”AI迈进
作者指出,人‑机协作不应止步于训练阶段:
Usable AI 关注工具本身和其学习流程的易用性(数据可用性、界面友好度等);
Useful AI 更进一步,要求系统在社会‑伦理‑文化层面真正解决用户问题、赢得信任(“可信 AI”)。
4. 综述对实践的启示
按任务选范式:
数据多但无标签 → AL;
需频繁迭代、界面友好 → IML;
标签极少且专家丰富 → MT/CL 组合。
多范式可串联:先用 CL 制定教学顺序,再在难例附近启用 AL 精修;或在 IML 过程中嵌入 XAI 提升透明度。
始终考虑人因:无论算法多强,都要让目标用户“理解‑使用‑信任”模型的决策链。
一句话总结:本文像是 HITL‑ML 的“路线图”:先分清谁在指挥(AL、IML、MT),再配上教学节奏(CL)、说明书(XAI),最终做成既好用又有用的智能系统。
Week 9
一、文章在讲什么?
作者把当今社会普遍存在的 “统计文盲” 现象称作 集体统计失读症:医生、患者、记者乃至政客常常看不懂健康数据,或在不自知的情况下得出错误结论,进而导致恐慌、误治和资源浪费。文章先用三大案例—— 1995 年英国避孕药“血栓恐慌”、乳腺癌筛查假阳性、朱利安尼引用前列腺癌生存率——展示误解的危害,接着剖析成因:
信息表达不透明:只报 100% 相对风险增加、25% 相对风险降低,却不报绝对数字;用生存率而非死亡率;给效益报大数字、给副作用报小数字。
医患传统心理:医生崇尚“确定性”与父权式信任,患者渴望“零风险”,都轻视统计;利益冲突和媒体追求轰动又进一步放大偏差。
二、作者提出的核心方法(如何让人看懂健康统计)
痛点 | 对策 / 方法 | 简释与示例 |
---|---|---|
相对风险夸大效益 | 报告绝对风险 (Absolute Risk) | “乳腺癌死亡率从 5/1000 降至 4/1000”,而不是“降低 20%”。 |
条件概率让人算不出结果 | 改用自然频数 (Natural Frequencies) | 把“敏感度 90%、假阳性 9%”翻成“1000 人中 10 有病,其中 9 人测阳性;990 人无病,其中 89 人测阳性”,医生正确解读率从 21% 升到 87%。 |
生存率误导“活得更久” | 用死亡率 (Mortality) 比较疗效 | 前列腺癌美国 vs 英国 5 年生存率差异大,但死亡率几乎相同。 |
效益、危害“货币不一致” | 同一度量同时呈现 | 既报绝对效益,也用绝对数字报副作用,避免“错配框架”。 |
大众缺乏基本概念 | 最小统计素养清单 | 会问“基线风险是多少?”“时间跨度多长?”“绝对有多少人受益/受害?”等。 |
长远策略 | 把统计思维前移到义务教育和医学院,用离散频数、积木、可视化软件等“看得见、摸得着”的方式培养概率直觉。 |
三、实践启示(如何用起来)
写科普/病患说明书:先给绝对数字,再补充相对风险;用 1000 人频数条形图代替百分比饼图。
医患沟通:用三句话回答检查或治疗成效:①先说基线风险,②说明检查误差(假阳、假阴)并用自然频数举例,③同时给出效益和副作用的绝对人数。
媒体报道:报道任何医学突破时,“X% 降低”前务必给出“从 A/1000 到 B/1000”。
教育与培训:把“如何读懂一张风险表”列为中学生健康课和医学生必修实验,强调动手转换自然频数。
一句话总结
作者的处方很直接:**把复杂概率翻译成人人听得懂的“绝对人数+自然频数”,并在学校和医学院把这种“风险翻译术”当作读写算同等重要的基本技能去教。**只有这样,医生能给出明白账,患者才能真正做“知情决策”。
文章核心
作者提出一套 通用(非疾病特定)的人工智能框架,用来模拟临床医生的连续决策,既可当作政策‑支付模拟器,也能作为“会思考的医生”嵌入真实电子病历(EHR)系统。
一、为什么要做这件事?
医疗信息量爆炸、选项繁杂,医生很难凭直觉在多次就诊中持续做最优选择。
现行“按服务计费”或“一口价”模式要么成本高、要么疗效差,亟需更聪明的决策工具。
二、框架怎么搭?——“三层”结构一目了然
层级 | 关键词 | 作用 | 你可以把它想成… |
---|---|---|---|
患者代理 (Patient Agent) | 个体化 Markov 决策过程 (MDP) | 用 EHR 训练转移概率,预测病情随治疗/不治如何转变 | “每位病人都有自己的棋盘格” |
医生代理 (Physician Agent) | 动态决策网络 (DDN) + 部分可观测 MDP (POMDP) | 维持对病人健康信念状态,在信息缺失时也能作决策 | “脑内模拟器” |
多智能体系统 (MAS) | 患者‑医生互动,可扩展到多个医生、政策或资源限制 | 观测、行动、再规划的闭环 | “虚拟诊室” |
算法循环:建立病人‑MDP → 每次就诊过滤新证据 → 搜索 MDP 决策树 → 选当前最佳动作 → 更新信念 → 循环直至停治。
三、模型里最重要的“招数”
三种转移模型解决“治疗后会咋样?”
0阶:只看总体平均;
1阶:看上一次变化;
全局:看自基线以来总趋势(最稳健)。
多种决策策略做对比
MDP 最优策略:综合未来多步收益‑成本;
Max Improve / 随机策略:只看下一步概率;
Raw Effect / Hard Stop:模拟现实两种付款模式。
效用函数 = CPUC(Cost Per Unit Change)
- 同时惩罚高费用、奖励高改善;可通过“Outcome Scaling Factor”调节疗效权重,找到成本‑效果最优点。
四、他们怎么验证?
用美国 Centerstone EHR 中 500 名抑郁及多慢病患者的真实随访数据做仿真。
结果:全局‑MDP 策略在有缺失数据的情况下, 平均 CPUC $189,而传统按次计费模拟需 $497;同时疗效(CDOI‑ORS 变化)提升约 30–35%。
调节 Outcome Scaling 后,甚至能 多 50% 疗效、成本减半。
五、我该怎么理解这套方法?
把连环诊疗视为“下棋”:每步(处方/停治)都会影响棋盘状态(病情),AI 用 MDP 提前推演多步,再选此刻最划算的棋。
信念状态 = 医生的“临床直觉”:POMDP 允许在实验室数据缺口、患者失访时仍能给出概率化判断。
CPUC 像网购“性价比”:同样花费,谁让病情好转更多就优先;也能按需求给“疗效”更大权重。
六、局限与未来方向
需大量高质量 EHR 数据训练转移概率;
现阶段只测“治疗 or 不治”二选一,未来可扩展多药物、资源限制与患者依从性;
个性化 MDP、遗传信息、实时优化阈值等仍在路上。
一句话结论
作者用 MDP/POMDP + 多智能体,把“医生多次看诊并权衡成本‑疗效”的过程数字化并提前模拟,证明 AI 既能省钱又能让患者更好,为未来“可自我学习的临床决策支持系统”奠定了方法学基础。