事实上,涉及到生成式摘要算法这东西别说是让金主知道是什么东西了。
很多从业人员也摸不着头脑。
林灰前不久看到普林斯顿大学的学报称:
普林斯顿大学数学系同Google SEARCH组成了一个新型摘要算法研究团队。
这个研究团队声称将搞出一个比林灰弄得算法更高效的新型算法。
这个团队的课题名称:
——“基于LSTM长短期记忆神经网络实现高效摘要算法”?
看到这个名称,林灰却有点哭笑不得。
两个很顶尖的团队明明是想搞定一个更牛的摘要算法,为什么却要在长短期记忆神经网络上下功夫呢?
林灰一时之间有点无语,脑海中能想到的形容词只有“南辕北辙”。
林灰印象中“长短期记忆神经网络神经网路”最初提出来是为了处理训练传统循环神经网路时可能遇到的梯度消失和梯度爆炸问题(然而也没把这个问题给解决了)
虽然长短期记忆神经网络在处理长序列文本的时候可能会有一定的优势。
但只是凭借这玩意显然很难搞定生成式摘要算法关系不大啊。
以这个为研究方向,林灰很怀疑这些人究竟能否搞出来什么成果。
而且此次谷歌研究院是跟普林斯顿大学数学系合作的。
林灰前世没少看一些学术论坛。
虽然正经知识没学到多少。
但关于普林斯顿大学数学系的一些轶事趣谈还是略知一二的。
普林斯顿大学数学系充斥着性情很古怪却又很执拗的人。
小主,这个章节后面还有哦,请点击下一页继续阅读,后面更精彩!</div>
林灰感觉谷歌研究院同普林斯顿大学数学系进行合作的话大概率会被带跑偏。
更何况此次二者的研究方向还是LSTM这个方向。
林灰觉得此二者进行合作研究偏离航向是大概率事件。
但林灰也不能松懈。
适当的高估对手是有必要的。
一个人成功应该是基于自身更为强大的基础上。
而不是要指望着对手更菜。
不过有一说一,这些追随者朝着错误的方向使力也说明了一个道理。
即生成式摘要算法这个方向确实不适合作为人工智能的爆点。
专业人员都容易混淆的事物。
但像生成式摘要算法这么容易让人云里雾里的项目显然是不适合作为人工智能的爆点的。
莫非一点点给普罗大众解释么?
快节奏的时代并不是所有人都那么有耐心。
究竟什么适合作为人工智能的爆点呢?
等等。
前世人工智能究竟是怎么火起来的呢?
林灰突然思考起这个问题。
想到了前世林灰突然有了答案:
——阿法狗AlphaGo。
前世涉及到人工智能方面的研究虽然由来已久。
但要说人工智能什么时候爆火火起来的。
似乎还是2016年之后的事情。
2016年3月,阿尔法围棋AlphaGo与围棋世界冠军、职业九段棋手李世石进行围棋人机大战,以4比1的总比分获胜。
这之后人工智能才一下子名声大噪起来。
一个围棋方面的东西能成为人工智能的爆点?</div>
83书屋:(www.83shu.com)