
ai 技术进化速度是不越来越快了?
copilot 学习出的结果已经很让人震惊看不懂了,为啥能那么精确仿佛洞悉开发者想法,再进步一些,把最后一层窗户纸捅破,ai 是不就能自我优化了,那个时候是不要世界末日了?
copilot已经可以从一句话描述来生成代码,比如“生成个crud接口”,那可以让程序自己跑一下生成的代码,看看输入输出是否符合目标,不断学习不断收敛,最终实现目标。
从一句话生成一个crud接口,到一句话生成一个网站,我觉得继续想下去世界就要毁灭了。
1 Rh1 2022-07-27 06:08:54 +08:00 via iPhone 我也有个疑问:AI 或者说机器人以后会不会摸鱼? |
2 kongkongye OP 靠人来堆功能,几个月出一个网站之类的,尚能看到上限,但是如果让 ai 靠算力来堆功能堆网站,简直难以想象,几分钟生成一个淘宝? |
3 kongkongye OP 最牛逼与恐怖的地方在于,机器学习之类的技术能否将目标设定成优化自身 |
4 kongkongye OP copilot 可以根据上下文推荐出非常精准的下一行你想写的代码,那能不能给机器喂大量的用户名密码,让它根据我输入的用户名推荐一堆可能的密码?进而让机器人自行上网爬,尝试登录来验证账号密码正确性,自行提高精准度,相当于自己给自己喂数据? |
5 bug403 2022-07-27 07:58:23 +08:00 语音识别转换文字,发展了多少年? 现在会议为什么还需要人工速录员? 一点点错误的积累,,真的差别很大 |
6 kongkongye OP @bug403 我认为机器学习跟这种传统的识别不一样,因为它是会学习自我修正结果的,而语音识别只能程序员优化代码算法。 |
7 kop1989smurf 2022-07-27 08:40:21 +08:00 via iPhone 目前机器学习层面的 ai 并不会自我修正。 因为严格意义上讲 ai 没有对错的概念。 只能是在不停的自我迭代与人工矫正的过程中不断的接近统计学极限。 比如 copilot ,只是通过算法统计出了 github 上的最大公约数,然后再通过接近一年的免费人工校验达到的效果。 |
8 kongkongye OP @kop1989smurf 对错概念可以配置的吧,比如一个方法 /一个功能达到目标的情况下执行耗时越短越好 |
9 LeeReamond 2022-07-27 09:03:24 +08:00 冷知识:虽然百度谷歌等搜索引擎已经被使用二十年了,它能充分理解全球人民的需求并返回有帮助的结果。但实际以 AI 纪年来看,在 17 年 transformer 被提出前,或者说包括后续几年的落地时间,由于当下技术改进了,使程序可以更好地理解人类语言的语义,反过来说,其实前面二十年里搜索引擎几乎完全理解不了人们在说什么。 以 2022 的上帝视角来看,如果一个人在 2003 年感叹,天呐,百度太神奇了,它什么都知道,世界是不是要毁灭了。 |
10 kongkongye OP @LeeReamond he 弹能毁灭世界,很多国家也能造出来,但因为各国克制着所以世界没毁灭,但 he 弹毕竟是死物,如果能实现 ai 优化自身,我觉得这就是个活物了,人就控制不了。 |
11 kongkongye OP 我在想是否会有一天 稚晖君 或类似的大佬突然社交平台发布视频说我开发了一个可以优化自己的 AI |
12 kop1989smurf 2022-07-27 09:19:39 +08:00 @kongkongye #8 是的,但这是人工标定的结果。 这个严格意义上的“自我修正”还有很大的差距。 比如: 1 、目前的统计学概念的 ai ,是不能判断反馈结果的优劣的。这就导致模型可以被污染(不管是主观动机上,还是被动错误上)。 2 、目前的 ai ,是不能穷举、量化模型的输出的,这就导致模型没有安全边界。也就导致无法验证“验证函数”的有效性。 所以会出现以下问题: 1 、过拟合。 2 、被投毒。 3 、不可靠(或者说不可预计的结果)。 所以这就导致目前落地的 ai 都被用作“提示”,“辅助”,“模拟”,“统计”或者有明确规则与安全边界的领域(比如下棋,电子游戏)。 所以你想象的“一键生成淘宝”,在目前的算法没有突破的前提下,出现可能性很小。 因为你的需求的最佳解决方案,不一定是统计学上的最优解。 |
13 kop1989smurf 2022-07-27 09:30:13 +08:00 补充:还有一个问题,狭义的“自我进化”其实也包含着“验证模型”或者说验证函数的自我进化(在学习的过程中,目标和验证其实是不断变化的)。所以这就变成了“套娃”问题。 |
14 cnrting 2022-07-27 09:48:26 +08:00 via iPhone 快进到黑客帝国 |
15 duke807 2022-07-27 10:02:13 +08:00 via Android 人不可能造真正的智能 除非是非常小概率的偶意外致,本上不是人造 |
16 morty0 2022-07-27 10:03:00 +08:00 强化学习 |
17 ScepterZ 2022-07-27 10:12:31 +08:00 》从一句话生成一个 crud 接口,到一句话生成一个网站,我觉得继续想下去世界就要毁灭了。 一个很重要的事实,虽然现在生成的代码看起来质量很不错,但是离不用改直接能用还差得远。基于这种情况,我觉得他没法自己收敛自己,没有人工干预会逐渐发散 |
18 jr55475f112iz2tu 2022-07-27 10:35:24 +08:00 1. 你亲自用过 copilot 吗?还是只是通过看各类社区上的帖子 “用过” ? 2. 你训练过机器学习模型吗? |
19 0x2CA 2022-07-27 11:05:13 +08:00 事实上不会出现末日,ai 技术本质是统计学,结果是有正确率的,优化自身比较接近的是 automl 的概念,现在一直在搞,也搞出了不少成功,ai 通过 ai 技术给 ai 模型自动调参自动匹配相应的模型,实现好的效果。 |
20 mozhizhu 2022-07-27 11:10:01 +08:00 每次都学自己的,没有外来的新内容,会不会把自己毒死;或者堵死 |
21 LYEHIZRF 2022-07-29 16:36:56 +08:00 这就是强化学习 |
22 seliote 2022-10-22 09:35:30 +08:00 19# 说的对,AI 的本质是统计学,可是人也一样,什么事情都只是概率而已,没有什么绝对的事,我对 AI 的发展还是抱有很大的期待的,期待能做更多事,而不是能做所有事 |
23 Elpis 2023-01-15 21:23:49 +08:00 您是否在找:GAN |