This a google-doc collection of the Chinese version for AN by Rohin Shah, Richard Ngo, Dan Hendrycks, and Cody Wild. Chinese newsletter will be released in two or three days after the English version. All suggestions are welcomed.. You can comment on the docs
这是 Rohin Shah,Richard Ngo,Dan Hendrycks 和 Cody Wild 等人出品的人工智能对齐通讯的中文版合集,动态更新,一般在英文版出来后两到三天内更新中文版。留有评论的权限,希望大家给出宝贵意见和建议。你可以对文档进行评论
- AN #99 算法效率的增倍时间
- AN #98 通过查看哪些梯度有用来了解神经网络训练
- AN #97 是否有过巨大/健壮的不连续的历史案例?
- AN #96 Buck 和我讨论/争论有关人工智能对齐的问题
- AN #95 一个用来思考如何使人工智能变好的框架
- AN #94 人工智能对齐看作是人与机器之间的翻译
- AN #93 我们所处的绝境及应该如何避开这样的绝境
- AN #92 使用对比预测编码来学习好的表示
- AN #91 影响力度量的概念、实现、问题和基准测试集
- AN #90 搜索概况中如何包含自我强化的反馈循环
- AN #89 偏好学习算法的统一形式化
- AN #88 与人工智能风险相关的委托代理研究文献
- AN #87 随着深度学习的进一步扩展会出现什么
- AN #86 通过人类实验提升辩论和分解认知
- AN #85 我们应该问的人工智能规范化问题和一个令人惊讶的表现良好的聊天机器人
- AN #84 2018-2019 人工智能对齐工作回顾
- AN #83 基于 ReMixMatch 的采样高效的深度学习
- AN #82 OpenAI Five 是如何让其算力进行分布式训练的
- AN #81 普遍性可以解决意向对齐中的概念难题
- AN #80 什么无需长期专家的额外干预就可以解决人工智能风险
- AN #79 递归奖励建模成为与深度强化学习结合的一种对齐技术
- AN #78 形式化权力和工具性收敛以及年终人工智能安全慈善比较
- AN #77 双重下降:统计学理论与现代机器学习实践的统一
- AN #76 数据集大小如何影响健壮性,并通过测量约束违规来对安全探索进行基准测试
- AN #75 用学到的游戏模型解决 Atari 和围棋问题以及一位 MIRI 成员的想法
- AN #74 将向善的人工智能分解为能力、对齐和应对影响
- AN #73 通过了解智能体如何崩溃来检测灾难性故障 | g-doc
- AN #72 对齐、健壮性、方法论和系统构建是人工智能安全的研究重点 | g-doc
- AN #71 通过当下奖励函数优化避免奖励篡改 | g-doc
- AN #70 帮助仍在学习自己的偏好的人类的智能体 | g-doc
- AN #69 Stuart Russell 新书-为何我们需要替换人工智能标准模型? | g-doc
- AN #68 影响的可获得效用理论 | g-doc
- AN #67 创建在其中研究内部对齐故障的环境 | g-doc
- AN #66 将健壮性分解为能力健壮性和对齐健壮性 | g-doc
- AN #65 通过观看人类‘玩游戏’学习有用的技能 | g-doc
- AN #64 使用深度强化学习和奖励的不确定性来激发偏好学习 | g-doc
- AN #63 架构搜索,元学习和环境设计可以怎样去产生通用人工智能?
- AN #62 对抗性样本是由真实但难以察觉的特征引起的吗?
- AN #61 人工智能策略与治理,来自该领域两位专家的分享
- AN #60 一个新的AI挑战:在创造性模式中帮助人类玩家的 Minecraft 智能体
- AN #59 对人工智能风险的争论是如何随着时间而改变的
- AN #58 Mesa优化:它是什么,为什么我们应该关心它
- AN #57 为什么我们应该关注人工智能安全的健壮性和编程中的类似问题
- AN #56 机器学习研究人员是否应该在做出假设之前停止运行其实验?
- AN #55 监管市场和国际标准作为确保有益人工智能的手段
- AN #54 将有限阶段智能系统放进“盒子”中保持其野心的稳定
- AN #53
- AN #52
- AN #51
- AN #50
- AN #49
- AN #48
- AN #47
- AN #46
- AN #45
- AN #44
- AN #43
- AN #42