2024年诺贝尔物理学奖得主、AI教父Geoffrey Hinton在访谈中表示,AI在未来30年内导致人类灭亡的概率达10%-20%。他认为,建立比人类更智能的AGI系统可能带来生存威胁,呼吁政府加强监管以确保技术安全开发。