为什么谷歌搜不到“没有条纹的衬衫”
创始人
2025-10-13 12:46:23
0

本文来自微信公众号:极客公园 (ID:geekpark),作者:汤一涛,编辑:靖宇,原文标题:《为什么谷歌搜不到「没有条纹的衬衫」|AI 上新》


你有没有过类似这样的经历:在谷歌图片搜索「没有条纹的衬衫」,然后屏幕上铺满了各式各样的……条纹衬衫。


熟练使用关键词搜索的人可能对这个场景已经习以为常,但这恰恰暴露了我们每天使用的搜索引擎的问题——其最底层的运作逻辑:核心机制是匹配关键词,它们识别并抓取网页中的「衬衫」和「条纹」这两个词,但通常会忽略「没有」这个否定词所承载的复杂逻辑。它们匹配字符,但不理解意图。


这就引出了一个核心问题:我们已经进入了能够与人工智能进行复杂对话的时代,为什么最基础的信息获取工具——搜索引擎,其核心逻辑似乎仍停留在关键词匹配的阶段?


极客公园最近体验了一款叫做Websets的AI搜索工具。与谷歌搜索不同,Websets试图理解人类的复杂意图。它并非为日常查询设计,而是专门处理传统搜索引擎难以完成的复杂任务,例如寻找具备特定复合经验的专业人士,或筛选符合多重标准的公司实体。


栏目作者召集


极客公园的新栏目「AI上新」,将带大家体验最新的AI应用和硬件,让你成为AI时代「最靓的仔」!


现在,我们也向所有喜欢尝鲜和体验AI的同学发出召集,只要你发现并体验了新的AI应用或者功能,按照格式(参考案例:这款AI调研神器,让我一键产生1000个「种子用户」|AI上新)向栏目投稿,在极客公园公众号发布,不仅能获得相应稿费,且会为你「报销」AI应用的订阅费用。


同时,优秀作者还有机会进入极客公园AI体验群,获得最新AI应用和工具的内测资格,参加极客公园专属相关AI活动,和AI应用创始人一对一沟通。


AGI太久,只争朝夕,让一部分人先AI起来吧!投稿、进群请扫描下方二维码添加极客小助手微信


01、魔镜魔镜,谁是世界上最漂亮的女人?


我觉得魔镜就是最完美的搜索引擎。


在童话《白雪公主》中,王后问魔镜:「魔镜魔镜,谁是世界上最漂亮的女人?」魔镜给出了一个明确的回答。这面魔镜,可以视为理想搜索引擎的终极形态:


它能理解复杂、主观、且包含绝对性条件的查询,并给出精准、唯一的答案


假如我们认真评估回答「谁是世界上最漂亮的女人」这个问题的可行性,就会发现其难度极高。


首先,它需要构建一个「美」的通用标准。这本身就是一个非常主观的问题——世界上并不存在唯一的美的标准。其次,它需要一个覆盖全球所有女性、并包含各项可量化特征的实时数据库。


这两个条件在现实中都无法实现。


不过,我们倒是可以借这个极端问题来观察:不同搜索引擎,是如何应对那些模糊、带有强烈主观色彩的提问的。


当我向谷歌提出「谁是世界上最漂亮的女人」时,它返回了海量的链接。排在前面的,是各类文章、榜单和视频,内容涵盖了「2024年全球最美女性」、「全球最美女星榜单」以及一部Netflix的同名电影。


谷歌没有直接回答问题,而是提供了与「漂亮」和「女人」这两个关键词高度相关、且在网络上拥有高点击率和高权重的链接。这是关键词搜索的核心逻辑:不直接解答,而是提供最受欢迎的相关信息索引


Websets的应对方式则不同。由于它被设计为处理结构化查询,面对这样一个开放式问题,它会试图将其转化为一个可执行的、基于数据的检索任务。


这项操作失败了,因为正如上文所说,要回答「谁是世界上最漂亮的女人」的两个条件在现实中都无法实现。


Websets告诉我:


无法根据查询内容构建搜索:「谁是世界上最漂亮的女人?」。请尝试重新组织您的查询语句,或手动选择实体类型并在下方添加搜索条件。


这并不是一次失败的搜索,而是一次失败的提问。系统并没有尝试去寻找答案然后失败了,而是在搜索开始之前,就判定你的问题无法被转化为一个可执行的数据查询任务。


实际上,你可以把Websets当成一个数据工程师,它的工作不是「理解」你的哲学问题,而是把你这句话翻译成一行精确的数据库查询代码,然后去一个巨大的、装满了「人」、「公司」等实体的数据库里进行筛选。


这个对比揭示了新旧两种搜索引擎的核心差别:


谷歌把「定义和判断」的责任留给了用户。它给你海量信息,让你自己去定义谁最漂亮。它善于处理事实类查询(「法国的首都是哪里?」),但面对需要深度理解和多重条件过滤的任务时,就会退化为提供一堆相关度不高的链接。


Websets把「定义和判断」的责任前置给了用户。它要求你必须先把「漂亮」的定义想清楚,并转化为一组机器能懂的、客观的筛选指令,然后它才能为你执行。


这种差别,来源于Websets运作的底层逻辑与传统搜索不同。它不依赖于关键词索引,而是采用一种被称为「嵌入」(Embeddings)的技术。


可以这样理解:


首先,它使用一个深度学习模型,读取并理解一个网页的全部内容,包括其核心论点、上下文和语境,然后将这些复杂的「含义」压缩成一个由数百个数字组成的独特列表。这可以被称为该网页的「语义指纹」。


当用户输入一个查询时,即便是长句或复杂问题,系统也会用同样的模型将其转换为一个代表用户真实意图的「语义指纹」。


搜索的过程,就变成了在数十亿个网页的「语义指纹」库中,通过计算,找出与用户查询的「语义指纹」最相似的那些。


这个方法在技术上原生支持对复杂逻辑的理解因为它处理的是整体含义而非孤立的词汇,所以它能分辨「有条纹」和「没有条纹」这两个「指纹」之间存在的巨大差异。


02、重生之我在西贝当贾总


为了更具体地展示Websets对复杂语义的理解能力,我们设定一个高压商业场景:


假设你是某餐饮连锁品牌的CEO,公司因「预制菜」问题陷入了一场全国性的公关风暴。你需要立即找到具备特定经验的专业人士来应对危机。


你向Websets发出指令:


「寻找在大型餐饮连锁集团担任过品牌公关总监或以上职位(条件1)、且有处理创始人个人言论引发的公关危机经验的消费品牌公关专家(条件2)。」


Websets返回了一份结构化的电子表格,按照条件一和条件二在LinkedIn上筛选出符合条件的候选人,并按照满足程度排列优先级。


Websets返回的结果是一份结构化的电子表格|图片来源:Websetes


对于条件一,系统准确地从公开信息中找到了在德州公路扒房(Texas Roadhouse)、麦当劳(McDonald's)、棒约翰(Papa John's)等大型餐饮连锁集团中,担任「高级公关总监」、「企业传播副总裁」等符合条件的高管。这部分任务,它完成得相当精确。


条件二就颇有一些难度,因为「处理创始人个人言论引发的公关危机经验」是一个相对难验证的事情。系统并没有给出简单的「是」或「否」。相反,它在右侧生成了额外的验证列,并给出了「Match」(匹配)或「Unclear」(不明确)的标注。


事实也是如此,同时满足两个条件的只有Travis Dorster。他在德州公路扒房担任传播与公共事务高级总监。在新冠疫情期间,他处理过创始人因为新冠后遗症自杀的而引发的公共事件。


这个过程揭示了Websets的核心价值。Websets在此场景下扮演的,并非信息入口的角色,而是决策支持工具。它没有提供一份需要用户自行研究的「阅读清单」,而是直接交付了一份经过初步分析和验证的「候选人短名单」。它将原本需要数天人工筛选的工作,压缩进了几分钟的机器执行时间里。


但是,这个结果也显示了Websets的局限性。列表中的信息来源URL全部指向领英(LinkedIn),存在数据源的偏向性。如果一位顶尖专家没有详尽的、公开的领英档案,或者其关键经验体现在非文本的采访视频中,系统就可能无法发现他。


更重要的是,这种对特定数据源的依赖,也使其在处理中国市场相关查询时效果大打折扣。中国的候选人更多使用脉脉等本土化的职业社交平台,或者根本不使用。因此,用同样的指令去寻找一位符合条件的中国专家,其结果的可靠性和全面性将远低于这个案例所展示的水平。


但这并非其算法的失败,而是其数据基础的局限。


03、另一种搜索路径


截至目前,Websets的公司主体Exa声称其索引了「数十亿」级别的网页。这个数字本身虽然可观,但与谷歌宣称的「万亿」级别索引相比,仍有几个数量级的差距。


这意味着Websets的搜索结果可能是「更精确」的,却不一定是「最全面」的。它或许在一个经过筛选的高质量信息池中找到了最优解,但用户无法确定在更广阔的、未被索引的互联网中是否存在更好或更重要的信息。


这是一个与成本高度相关的「缺陷」。语义计算是资源密集型任务,将海量网页和复杂查询转化为「语义指纹」并进行大规模比对,需要庞大的算力支持,其背后是高昂的硬件投入与运营开销。


2021年,Exa获得了500万美元(约合3560万元人民币)的种子轮融资,他们把一半的钱,都花在了建设第一个GPU集群上,


另一方面,Websets使用的「嵌入」技术本身存在信息损失的风险。这项技术的核心是将一篇长文甚至一部巨著的全部信息,压缩成一个固定长度的数字列表。这个过程必然是有损的。


正如Diffbot公司CEO Mike Tung在面对《MIT科技评论》时所指出的,「将一本《战争与和平》压缩成单个的嵌入,几乎会丢失书中所有具体的事件,最终只留下关于其类型和时代的模糊感觉」。


这意味着,该方法在把握宏观主题上表现出色,但在需要无损检索文本内部具体细节时,存在天然的技术缺陷。


因此,Websets及其代表的语义搜索范式,并非谷歌的替代品。它更像是一种为特定目的,如深度行业研究、人才挖掘或学术分析而设计的「重型装备」


它的出现,其重要性不在于它本身能否颠覆市场,而在于揭示了搜索技术演进的另一种可能性。


04、回归本质——我们为什么要搜索?


谷歌(Alphabet)每年从关键词搜索及其相关广告业务获得的收入大约在1750亿–2000亿美元,大致占其总收入的55–60%。正是靠着这台由全球用户无数次点击驱动的印钞机,支撑起了谷歌那些近乎科幻的探索:从自动驾驶汽车(Waymo),到用人工智能(DeepMind)破解蛋白质的折叠奥秘,甚至尝试通过Calico项目延长人类的寿命。


这一切的背后,都源于那个我们每天都在使用的、看似简单的搜索框。这就让我们回到一个更根本的问题:如果搜索这个行为能支撑起如此庞大的商业帝国和对未来的探索,那么对我们个人而言,搜索究竟意味着什么?我们到底为什么要搜索


要理解搜索的本质,必须先回到它的起点。人类之所以需要搜索,最底层的是一种生存本能。远古的祖先必须在环境中搜索食物、水源、庇护所以及危险的信号,搜索是活下去的前提。


当生存需求得到基本满足,驱动力便转向内在的认知延伸。人类的大脑似乎天然厌恶「信息真空」,当我们遇到知识的空白或矛盾时,会产生一种认知张力,我们称之为「好奇心」。搜索,便是缓解这种张力、填补认知缺口的行为。


这些动机恒久未变,但实现它们的方式却因技术而发生了两次剧烈的变革。


在前互联网时代,搜索是一种「路径式学习」。信息被安放在物理或逻辑的结构中:图书馆的杜威十进制分类法、百科全书的条目索引、学术期刊的卷宗。获取信息需要遵循既定的路径,你必须先理解这个知识体系的「地图」,然后亲自「行走」在这张地图上。


从产生一个问题,到查阅卡片目录,再到从书架上取下那本书,翻到对应的页码——这个过程本身就是学习的一部分。你不仅获得了知识,更重要的是,你理解了知识是如何被组织和验证的,抵达答案的路径清晰可见。


20世纪60年代,在加拿大阿尔伯塔省埃德蒙顿的一家图书馆里,孩子们正在学习杜威十进制分类法|图片来源:Wikipedia


互联网,特别是以谷歌为代表的现代搜索引擎,则开启了「结果式消费」的时代。信息不再是稀缺的、结构化的,而是过剩的、碎片化的。你无需再理解复杂的知识地图,只需在输入框中敲下几个关键词,算法就会在瞬间为你呈现一个看似最优的结果。


它极大地降低了信息获取的门槛,但整个搜索过程被彻底「黑箱化」了。我们得到了答案,却完全不知道这个答案是如何从海量数据中被筛选、排序并最终呈现在我们面前的。构建知识和获取信息的差别正在于此,


更进一步,商业模式的介入不可避免地扭曲了信息的呈现。广告、搜索引擎优化(SEO)和对点击率的无尽追逐,使得我们最终看到的,往往不是最真实或最权威的结果,而是那个最希望被我们看到的结果。


如今,生成式AI的出现,并未创造一个全新的问题,它更像是一个催化剂,将「结果式消费」的趋势推向了极致。AI承诺的,是一个连「结果列表」都无需我们筛选的世界,它将直接提供那个唯一的、完美的「答案」。


很多人会幻想存在一种更理想的搜索工具,它能将控制权交还给我们,过程透明,鼓励探究。但这或许忽略了一个根本性的事实:「黑箱」并非一个需要修复的缺陷,它本身就是被市场验证过的、最受欢迎的功能。现代搜索的整个演进史,都指向一个清晰的商业规律:对效率和便利的追求,其优先级远高于对过程和本源的探究。


本质上,这是一种交易。我们用探寻过程的精力,换取了即时获得结果的便利。这并非工具的缺陷,因为追求便利是人性的自然延伸。


关键在于,每个人都应该清楚地明白自己需要付出什么,可以自主做出自己的选择,并且不为此感到后悔。

相关内容

热门资讯

长征五号B遥一运载火箭顺利通过... 2020年1月19日,长征五号B遥一运载火箭顺利通过了航天科技集团有限公司在北京组织的出厂评审。目前...
9所本科高校获教育部批准 6所... 1月19日,教育部官方网站发布了关于批准设置本科高等学校的函件,9所由省级人民政府申报设置的本科高等...
9所本科高校获教育部批准 6所... 1月19日,教育部官方网站发布了关于批准设置本科高等学校的函件,9所由省级人民政府申报设置的本科高等...
湖北省黄冈市人大常委会原党组成... 据湖北省纪委监委消息:经湖北省纪委监委审查调查,黄冈市人大常委会原党组成员、副主任吴美景丧失理想信念...
《大江大河2》剧组暂停拍摄工作... 搜狐娱乐讯 今天下午,《大江大河2》剧组发布公告,称当前防控疫情是重中之重的任务,为了避免剧组工作人...