Skip to content

AGI Watchful Guardian

Wir müssen wissen, wir werden wissen.

Category: Alignment

Posted on 2019年12月2日

AN #75 用学到的游戏模型解决 Atari 和围棋问题以及一位 MIRI 成员的想法

Posted on 2019年12月2日

AN #74 将向善的人工智能分解为能力、对齐和应对影响

Posted on 2019年11月18日

AN #73 通过了解智能体如何崩溃来检测灾难性故障

Posted on 2019年11月10日

AN #72 对齐、健壮性、方法论和系统构建是人工智能安全的研究重点

Posted on 2019年11月1日

AN #71 通过当下-RF优化避免奖励篡改

Posted on 2019年10月30日

AN #68 影响的可获得效用理论

Posted on 2019年10月30日

AN #67 创建在其中研究内部对齐故障的环境

Posted on 2019年10月30日

AN #66 将健壮性分解为能力健壮性和对齐健壮性

Posted on 2019年10月30日

AN #65 通过观看人类‘玩游戏’学习有用的技能

Posted on 2019年10月30日

AN #64 使用深度强化学习和奖励的不确定性来激发偏好学习

Posts navigation

Previous page Page 1 Page 2 Page 3 Next page

Search

Archives

  • Xiaohu Zhu

Nets

AGI AI Safety Alignment Beneficial CID CSAGI DeepMind KL divergence Machine Learning Theory OpenAI Side effects 未分类

Xiaohu Zhu

Xiaohu Zhu

Xiaohu Zhu

Founding Director of Center for Safe AGI. Founder and Chief Scientist of University AI. Researcher on AGI/AI Safety, Deep RL, Game theory and Logic.

Personal Links

  • AGI BAT

View Full Profile →

Follow me on Twitter

My Tweets

Posts I Like

  • 2020-21 New Year review on Victoria Krakovna
Create a website or blog at WordPress.com
AGI Watchful Guardian
Create a website or blog at WordPress.com
Cancel