首页 > 科幻魔法 > 科技入侵现代

科技入侵现代 第428节

  徐贤说:“无论是哪一种,我只知道一件事,那就是百度完了。

  如果这是一家小公司做出来的,可能百度还能靠着自己的护城河苟延残喘,但这是燃哥和腾讯合作的产物。

  以腾讯的流量和推广能力,百度的市场份额会被迅速吞噬。

  文心一言不但不是他们逆风翻盘的号角,反而是他们步入坟墓的丧钟。”

  这么说吧,但凡知道百度骚操作的,没人能对百度有好感。

  集合竞价模式下,疯狂给莆田系医院、P2P企业打广告,只要你给钱,广告网站能够把原本的搜索结果给挤掉。

  没有任何社会责任可言。

  网民们对百度的厌恶不是一天两天,甚至都有点此恨绵绵无绝期了。

  这也是为什么明明Robin个人形象、履历、私生活方面都没有半点毛病,但在简中互联网上的口碑臭不可闻。

  有的人是自己把企业给拖累了,像蔚小理中的李斌和理想,这两属于创始人口不择言把企业给拖下水,让人连带着讨厌企业,雷君属于是个人形象把小米带飞,而Robin是很少见的,个人被企业形象给拉下水。

  李宜清听完后说:“这是好事啊!要是百度倒了,我肯定得大喝一顿。”

  徐贤补充道:“我得放烟花庆祝!”

  他接着坐到自己的电脑前,打开电脑,输入网站,完成注册,然后开始提问,他问的问题和李宜清差不多,李宜清问的是应用数学,他问的是偏微分方程。

  “作为数学系本科生,你很可能已经掌握了部分基础,但PDE的学习需要坚实的先决知识。

  这些是PDE课程的典型预修要求,确保你能理解PDE中的分析工具和方法,如果有缺失,建议优先补齐:

  1.微积分序列:单变量、多变量微积分(包括向量分析、格林定理、斯托克斯定理),这些是PDE中积分和微分操作的核心。

  2.线性代数:矩阵、向量空间、特征值等,PDE常涉及线性算子。

  3.常微分方程(ODE):一阶、二阶ODE的求解方法,如分离变量、积分因子。PDE入门往往从ODE扩展而来。

  4.傅里叶分析基础:傅里叶级数和变换,这是求解许多线性PDE的关键工具(如热方程、波方程).”

  整个回答非常完整,更让徐贤震惊的是,“卧槽,清哥,这怎么还包含了申请硕士或者博士的准备呢?

  它这里让我在本科后期找教授做数值分析领域的研究项目,目标院校可以选择明尼苏达大学,该校的PDE研究活跃,同时要准备GRE数学专项,突出PDE相关课程。

  卧槽,我看你那回答里可没包括这方面内容。”

  李宜清凑过来看了眼,“是啊,这智能程度更高了,它还知道数学做研究得留洋,土博在国内不值钱,可问题是,应用数学为什么不用?”

  片刻后李宜清说:“估计是它的训练数据库里,关于PDE的回答更完善,所以它整合出来的回答更智能。”

  深红在文学性上能够震惊一般用户,在专业问题上又能震惊像李宜清和徐贤这样的高级知识分子,无疑八点一经推出,深红的影响力迅速扩散。

  原本华国网友们还沉浸在下午百度文心一言的让人失望上,文心一言不但没有实际演示,只有提前录制好的视频,而且表现也很糟糕。

  丝毫没有体现出,它和搜索引擎的优势。

  晚上八点,深红就给了他们一个大大的惊喜。

  这就像是一颗核弹,在简中互联网投下的一颗核弹。

  此时你打开任何一个群组,无论是微信群还是qq群,全部都在讨论深红。

  晚上九点还差2分的时候,深红的官方微博就发了条庆祝的海报:

  “58分,注册用户数突破100万!”

  海报是红色,字样是黑色,整个海报和深红的命名很贴合,点赞数迅速攀升。

  网友们也在下面积极留言。

  当天晚上美股开盘,百度瞬间跳水,哪怕有阿美莉卡银行和花旗银行的资深分析师出来帮他站台,说文心一言很好用,远超预期,但你的竞争对手只花了一个小时就完成了从零到一百万的突破。

  更何况,资本市场就没人看好,百度能赢下和腾讯的正面竞争,腾讯人工智能的掌舵人还是林燃,在外网有着疯狂科学家外号的男人。

  开盘大跌14个百分点,盘中跌幅进一步扩大到23个百分点,收盘的时候略微回升,回升到19个百分点。

  “燃神真的太凶残了,百度今天开盘前还有440亿的市值,今天收盘的时候就只剩下356亿左右,一天快被干掉小一百亿美元的市值。

  太恐怖了,八秒钟的视频就是发布会了,一个小时一百万的注册用户,这可不是app,深红现在只有网页,还没有做移动端的适配。

  这意味着,有超过100万的用户,使用电脑打开网页完成了注册和使用。

  真的太凶残了。

  Pony估计要笑死了,不费吹灰之力就把百度给击溃了,以深红表现出来的能力,最多半年,最多半年时间百度的搜索引擎就要沦为和bing差不多的市场份额。

  这不是最要命的,最要命的是腾讯在2020年的时候收购了搜狗,全资收购搜狗,搜狗一直都有搜索引擎业务,如果腾讯用深红为搜狗赋能。

  或者重新推出一个基于人工智能的深红搜索引擎,把搜狗合并进去。

  百度能不能保证和必应一样的地位都不好说。

  八秒钟干掉百度小一百亿美元的市值。

  真的,活在这个时代,我们每天都在见证奇迹。

  另外多说一下,Robin说华国科技企业和GPT最少差两年,我建议你这个水平,还是老老实实把陆奇请回来,AI这场战役,你这个认知能赢才怪呢。”抖音某大V深夜录制的感想。

  当天大跌的不仅仅是百度,华国在阿美莉卡上市的非腾讯系的互联网公司都在跌。

  腾讯的深红,以及背后的意义,对所有这些企业来说都是重大利空。

  另外一方面,谷歌、META、苹果这些公司市值也受到影响小幅下跌,腾讯毕竟在海外也是有业务的。

  只有英伟达再次大涨。

  毕竟大家再怎么挖金矿,卖铲子的总是稳赚不赔。

  纽约,一座建于18世纪的监狱,尼兰詹已经在这呆了一年多时间了。

  最开始的时候,不断有联邦调查局的史密斯专员来问话,非要逼他说出自己到底是怎么协助华国完成阿波罗登月的。

  他在其中起到了怎样的关键作用。

  并且暗示他,只要他交出关键技术资料,他们就能放他出去。

  问题是,尼兰詹自己清楚,他是真没掺和这件事啊,嘴上说给了帮助,我就批个假也算是帮助吗?

  他也想给技术资料,阿美莉卡登月了,印度也有于荣焉。

  但他真的拿不出来。

  后来慢慢的来问话的变成一周一次,然后变成一个月,半年。

  现在已经足足有半年时间除了监狱工作人员外,没有史密斯专员来问他话了。

  他就像被遗忘在帝国角落,叫天天不应叫地地不灵。

  尼兰詹的经历也给了很多印度裔教授一个提醒,千万别为了好用而招华国学生。

  这一年多,华国学生申请阿美莉卡博士的难度大增,这也是原因之一。

  这天,尼兰詹像往常一样,起来,思考自己到底要怎么才能离开这该死的地方。

  然后两个身影出现在门口,一位是史密斯专员,另外一位,这人他熟悉啊,再熟悉不过了,在社交媒体上经常看到:扎克伯格。

  “巴拉苏布拉马尼安教授,恭喜你,你被保释了,被保释期间,不允许离开纽约,扎克伯格先生为你保释的。”史密斯专员说道。

  尼兰詹整个人都在发光,卧槽我终于能出去了,眼眶里饱含泪水,心想:万万没想到,救我出去的居然是扎克伯格?

第348章 饥不择食的META

  华国古代有句谚语,叫“山中方七日,世上几千年”,尼兰詹现在的感觉和这句谚语差不多。

  他简单洗漱一下就被带往了META在纽约的总部,扎克伯格用虔诚的表情看着他:“巴拉苏布拉马尼安教授,我知道你在人工智能领域有着超出寻常的造诣。”

  尼兰詹心想,自己这么难念的姓氏,扎克伯格能念得如此清晰,也真难为他了。

  紧接着,扎克伯格的话就开始出乎他意料了。

  我在人工智能领域有着超出寻常的造诣?尼兰詹在思考这句话,是不是又有什么坑,不过转念一想扎克伯格这样的大佬,世界顶级富豪,不至于要坑他啊。

  而且自己身为石溪分校人工智能领域的教授,说超出寻常的造诣,倒也不是不行。

  “我确实对人工智能颇有自己的一番见解。”尼兰詹微笑着说道,过去一年多被监狱折磨的日子终于过去,他要迎来新生,自信的笑容、从容的坐姿、睿智的大脑终于在他大脑内又占据了上风。

  扎克伯格听完后笑得更开心了,“不愧是伦道夫的教授,我就知道你肯定不一般!”

  扎克伯格把尼兰詹从监狱里捞出来,倒也没费多大功夫,毕竟他可是驴党长期铁杆合作伙伴,给驴党不知道捐了多少钱。

  尼兰詹又不是真的犯事了,联邦调查局调查来调查去也没找到尼兰詹和阿波罗登月的关系,没有找到有决定意义的证据。

  之前一直关着他,不过是因为把他当背锅的,一名没有任何背景的印度裔教授,来承担华国21世纪率先登月的黑锅,好像还挺合适。

  但当扎克伯格出手时,尼兰詹又变成了微不足道的小人物,他轻而易举就把对方给捞了出来。

  而且对方能被关一年多,说明应该确实有两把刷子。

  “巴拉苏布拉马尼安教授,你对大语言模型怎么看?”扎克伯格问道。

  尼兰詹大脑开始高速运转起来,毕竟这可是关乎到自己的安危啊!得表现出价值,他才能在外面一直被保释,甚至是无罪释放。

  他内心苦笑了一声:这叫什么事,自己明明就无罪,现在居然还要表现出价值才能无罪,这国怎?

  “我认为这是一个很有发展潜力的方向,我前几年在ACL会议上发表的论文《DeFormer: Decomposing Pre-trained Transformers for Faster Question Answering》针对的就是Transformer-based QA模型的痛点-全层输入宽自注意力导致计算慢和内存高予以解决,我提出DeFormer,一个分解的Transformer变体。

  在较低层,DeFormer用问题宽和段落宽自注意力替换全自注意力,避免问题和段落序列的交叉计算。

  这允许独立处理输入文本,实现段落表示的预计算,从而大幅减少运行时计算。

  DeFormer结构与Transformer相似,可直接用预训练权重初始化,并在QA数据集上微调。

  我们的实验显示,DeFormer版本的BERT和XLNet在QA任务上加速4.3倍以上,仅通过简单蒸馏损失损失1%准确率。”

  尼兰詹说的是他2020年在ACL会议上发表的论文,是当时LLM优化领域的经典工作,当时LLM流行的模型叫BERT,这篇论文直接构建在预训练Transformer上,LLM的瓶颈,也就是计算成本,在下游任务中凸显,这篇则一定程度上提出了解决思路。

  “包括我在2020年的另外一篇工作,其实和LLM的核心,也就是多层注意力有着类似的核心逻辑”

  尼兰詹自然不是水货,他在人工智能领域确实浸淫多年,有不错的成果,手上有好几篇顶会文章,都和LLM有关。

  那还是2020年,当时大模型还名不见经传呢,在人工智能领域属于边缘化的方向。

  扎克伯格是花了很多冤枉钱,把脸书改名META错误估计了元宇宙的到来时间,但不代表他没脑子,单纯因为尼兰詹是林燃的教授,就找他来。

  尼兰詹自己真有几把刷子,也是很重要的原因。

  大模型里的关键工作,包括自注意力机制、多头注意力、位置编码这些,尼兰詹都有深入的研究,毕竟他研究的重要方向之一就是NLP。

  扎克伯格欣喜过望,觉得自己找对人了。

首节 上一节 428/432下一节 尾节 目录txt下载

上一篇:人在崩铁几千年,游戏开服了?

下一篇:重生者太密集?我带国家队下场

推荐阅读