在不久前的一个阳光明媚的清晨,我坐在旧金山的咖啡馆里,喝着一杯浓郁的美式咖啡。就在我思考着如何为下一篇文章找到灵感时,溘然听到隔壁桌的一对夫妻在谈论人工智能(AI)。他们谈到的内容让我不禁竖起耳朵。
“你知道吗?OpenAI 的首席计策官 Jason Kwon 最近接管采访时说,AGI(通用人工智能)可能比我们预期的要早到来,”个中一位激动地说道。
我急速拿脱手机,开始搜索干系的新闻,果真,《朝鲜日报》上赫然登着这条震荡的。

OpenAI 首席计策官 Jason Kwon 在采访中提到,AGI 的关键技能可能比很多人预期的更快涌现。AGI,即通用人工智能,被认为是一种智力超越人类的人工智能。只管很多人预测 AGI 将在 3 到 5 年内涌现,但权永哲认为它可能会更早到来。
什么是AGI?AGI 是一种能够理解、学习和运用知识的人工智能,其能力超越了特界说务的AI(如谈天机器人或图像识别软件),可以胜任任何人类能够完成的智力任务。这意味着AGI不仅可以编写程序、诊断疾病,还可以创作音乐、撰写小说,乃至从事科研。
风险与应对Jason Kwon 在采访中强调,只管 AGI 技能已经相称前辈,但其开拓速率正在得到谨慎管理,以减轻潜在的负面影响。这是由于 AGI 的涌现可能会导致重大社会崩溃,例如失落业潮、经济不稳定,乃至可能危及人类的生存。
“我们假设这项技能很快就会实现,并正在探求适当管理它的方法。然而,仅仅由于技能存在并不虞味着它会立即成为产品。”
他说得没错。就像电的发明到电灯遍及中间经历了很长的韶光一样,AGI 的核心技能开拓与其在社会中的运用之间也可能有很长的延迟。
四大灾害性风险OpenAI 认为,AGI 有四个紧张领域可以被视为灾害性风险:
• 极度的说服力:人工智能能够利用各种数据,使人类盲目相信某些事情。• 网络攻击:AGI 可以被利用进行繁芜而有效的网络攻击。• 对核武器、化学武器和生物武器的支持:AGI 可能帮助开拓或利用这些大规模杀伤性武器。• 人工智能模型的自主性:AGI 能够从自己的数据中创造和学习,可能导致失落控。“最大的风险在于人工智能创造出前所未有的知识,并超越人类的掌握。”
这些风险听起来相称恐怖,但 Jason Kwon 强调 OpenAI 正在积极监控和管理这些潜在威胁,以确保 AGI 的安全开拓和运用。
盈利与安全可以并存一些批评者认为,人工智能公司现在优先考虑盈利能力而不是安全性。对此,Jason Kwon 表示:“盈利和安全可以齐头并进。成功的企业可以将其利润再投资于安全研究,从而创建一种可持续的模式。”
他举例解释,就像汽车行业利用汽车发卖收入来帮助使汽车更安全的研究一样,OpenAI 的创收能力直接支持他们目前正在进行的安全研究。
监管是关键Jason Kwon 一贯认为人工智能该当受到监管,这一承诺始终没有改变。公司须要做好准备,深入理解 AGI 的潜在生理和经济影响,供应必要的法律建议,并辅导企业如何与环球政府互助。
“没有人能够准确预测 AGI 将如何影响天下,但公司须要做好准备。”
结束语作为一个热衷于科技发展的普通人,读到这些信息后,我不禁感到既愉快又担忧。AGI 的到来或许会改变我们生活的方方面面,但我们也必须谨慎应对其带来的风险和寻衅。
SEO关键词AGI, OpenAI, Jason Kwon, 人工智能风险, 人工智能监管
你以为 AGI 的到来是福是祸?欢迎在评论区分享你的意见!