Skip to content

AGI Watchful Guardian

Wir müssen wissen, wir werden wissen.

Category: Alignment

Posted on 2019年10月30日2019年10月30日

AN #69 Stuart Russell 新书-为何我们需要替换人工智能标准模型?

Posted on 2019年10月30日2019年10月30日

AN #70 帮助仍在学习自己的偏好的人类的智能体

Posted on 2019年8月23日

AN #62 对抗性样本是由真实但难以察觉的特征引起的吗?

Posted on 2019年8月5日

AN #61 人工智能策略与治理,来自该领域两位专家的分享

Posted on 2019年7月23日2019年7月23日

AN #60 一个新的AI挑战:在创造性模式中帮助人类玩家的 Minecraft 智能体

Posted on 2019年7月11日2019年7月12日

最坏情况下的保证(重制版)

Posted on 2019年5月23日

AN #55 监管市场和国际标准作为确保有益人工智能的手段

Posted on 2019年5月23日2019年5月23日

AN #56 机器学习研究人员是否应该在做出假设之前停止运行其实验?

Posted on 2019年1月2日

基于奖励建模的可扩展智能体对齐

Posts navigation

Previous page Page 1 Page 2 Page 3

Search

Archives

  • Xiaohu Zhu

Nets

AGI AI Safety Alignment Beneficial CID CSAGI DeepMind KL divergence Machine Learning Theory OpenAI Side effects 未分类

Xiaohu Zhu

Xiaohu Zhu

Xiaohu Zhu

Founding Director of Center for Safe AGI. Founder and Chief Scientist of University AI. Researcher on AGI/AI Safety, Deep RL, Game theory and Logic.

Personal Links

  • AGI BAT

View Full Profile →

Follow me on Twitter

My Tweets

Posts I Like

  • 2020-21 New Year review on Victoria Krakovna
Create a website or blog at WordPress.com