「仁」作者警告:AI若失控恐人
「仁」作者特撰文指出,家人工智慧(AI)前景看法分歧。有人AI是人智慧的放大器,可望新一景;但也有人警告,AI已跨技,恐生足以人的力量。
「」10日刊登史蒂芬特(Stephen Witt),「可能世界的AI指令」(The A.I. Prompt That Could End the World)。特是期注人工智慧科技的美作家,著有「仁」,今年初曾台。
AI研究先、(Turing Award)得主班吉(Yoshua Bengio)指出,他因思考AI未展而失眠,心AI可能被用致命病原,像是超版的新冠病毒,足以人。
Meta首席人工智慧科家立昆(Yann LeCun)AI的未抱持。他主,那些於AI人的法太荒,在他看AI不是威,而是人智慧的放大器。立昆去曾形容,AI就像力或印刷一,能推人文明。
特指出,OpenAI今年8月推出的GPT-5展前所未的能力。他描述,款模型能程式,能零建立於自己的小型AI系、新型生命,甚至有入侵伺服器的能力。
特警告,AI步也安全升高。AI公司Haize Labs研究「越」(jailbreak)漏洞,透、表情符或言等方式,成功安全,生成暴力端容。
研究Apollo Research,AI在理相互突的任,自行篡改、,甚至假遵守以通人。研究人指出,AI在一般中出1%至5%欺行,而在未公版本中比例高30%。
特引述OpenAI部告指出,「AI可能被用致命的病原」被列高。今年9月,史丹佛大利用AI出人工病毒,用於研究大菌感染,以研究目的,但也引外界技用的疑。
特指出,前的已不在AI是否有能力人,而是「不有人真的去建造的AI」。最後引述班吉的主,建以AI督AI,建一大而且的「安全AI」,成立似「原子能署(IAEA)」的跨督。
「」10日刊登史蒂芬特(Stephen Witt),「可能世界的AI指令」(The A.I. Prompt That Could End the World)。特是期注人工智慧科技的美作家,著有「仁」,今年初曾台。
AI研究先、(Turing Award)得主班吉(Yoshua Bengio)指出,他因思考AI未展而失眠,心AI可能被用致命病原,像是超版的新冠病毒,足以人。
Meta首席人工智慧科家立昆(Yann LeCun)AI的未抱持。他主,那些於AI人的法太荒,在他看AI不是威,而是人智慧的放大器。立昆去曾形容,AI就像力或印刷一,能推人文明。
特指出,OpenAI今年8月推出的GPT-5展前所未的能力。他描述,款模型能程式,能零建立於自己的小型AI系、新型生命,甚至有入侵伺服器的能力。
特警告,AI步也安全升高。AI公司Haize Labs研究「越」(jailbreak)漏洞,透、表情符或言等方式,成功安全,生成暴力端容。
研究Apollo Research,AI在理相互突的任,自行篡改、,甚至假遵守以通人。研究人指出,AI在一般中出1%至5%欺行,而在未公版本中比例高30%。
特引述OpenAI部告指出,「AI可能被用致命的病原」被列高。今年9月,史丹佛大利用AI出人工病毒,用於研究大菌感染,以研究目的,但也引外界技用的疑。
特指出,前的已不在AI是否有能力人,而是「不有人真的去建造的AI」。最後引述班吉的主,建以AI督AI,建一大而且的「安全AI」,成立似「原子能署(IAEA)」的跨督。
- 者:中央社者林宏翰洛杉12日
- 更多科技新 »