据新浪科技 7 月 6 日报道,ChatGPT 的开发者 OpenAI 表示计划投入更多资源并成立新的研究团队,研究如何确保 AI 对人类的安全性,最终实现用 AI 来监督 AI。OpenAI 联合创始人伊利亚?苏茨凯弗和 AI 对齐负责人简?莱克在官方博客中表示:“超级智能的巨大能力可能导致人类失去力量甚至灭绝。目前,我们还没有解决方案来操纵或控制一个可能的超智能 AI,并防止其变成无赖。” 这篇博文预测,超智能 AI,即相比于人类更智能的系统,可能会在未来 10 年中出现。人类需要比目前更强大的技术来控制超智能 AI,因此需要在“AI 对齐研究”方面取得突破,AI 对齐是 AI 控制中的主要问题,即要求 AI 的目标和人类的价值观与意图保持一致。OpenAI 将在未来 4 年内,将算力的 20% 专门用于解决这方面问题。 原文链接 —- 编译者/作者:东寻 玩币族申明:玩币族作为开放的资讯翻译/分享平台,所提供的所有资讯仅代表作者个人观点,与玩币族平台立场无关,且不构成任何投资理财建议。文章版权归原作者所有。 |
OpenAI 预测超智能 AI 将在十年内出现,正研究用 AI 来监督 AI
2023-07-06 东寻 来源:区块链网络
LOADING...
相关阅读:
- 中央网信办副主任赵泽良:提升生成式信息准确性真实性,确保算力供2023-07-05
- 纽约市出台新法律,开始对招聘工具中人工智能的使用进行监管2023-07-05
- 网易丁磊:当前网易的首要任务是用最快的速度探索 AI 大模型的创新应2023-07-05
- 上海交通大学与华为联合打造的 AI 存力底座即将上线2023-07-05
- 消息称英伟达正考虑将部分 AI GPU 订单外包给三星2023-07-05