u1jodi1q 发表于 2024-9-4 01:51:28

谷歌:一篇论文,让科研者吃我三份安利

<span style="color: black;">↑ 点击</span><span style="color: black;"><strong style="color: blue;"><span style="color: black;">蓝字&nbsp;</span></strong></span><span style="color: black;">关注极市平台</span><img src="https://mmbiz.qpic.cn/sz_mmbiz_gif/gYUsOT36vfo79RAKcrwMxL1P0GbYXJWVQpRCia4VbFOPm68ujfAVhBTFkEljX64EwSKsYDL8adZlh0vc6VleHIg/640?wx_fmt=gif&amp;tp=webp&amp;wxfrom=5&amp;wx_lazy=1&amp;wx_co=1" style="width: 50%; margin-bottom: 20px;"><span style="color: black;">作者丨白鹡鸰</span><span style="color: black;"><span style="color: black;">源自</span>丨夕小瑶的卖萌屋</span><span style="color: black;">编辑丨极市平台</span><span style="color: black;">
      <p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><strong style="color: blue;">极市导读</strong></p>
    </span>&nbsp;<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><span style="color: black;">本文介绍了Google一篇最新的工作,Google对网络本身进行了进一步的探索,试图<span style="color: black;">经过</span><span style="color: black;">跟踪</span>模型学习表征的过程,确认ViT和ResNet在处理图像的原理上<span style="color: black;">是不是</span>一致。&nbsp;<span style="color: black;">&gt;&gt;<a style="color: black;">加入极市CV技术交流群,走在计算机视觉的最前沿</a></span></span></p>
    <h2 style="color: black; text-align: left; margin-bottom: 10px;">前言</h2>
    <p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">计算机视觉、<span style="color: black;">设备</span>学习,这两个词会让你想到什么?</p>
    <p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">相信绝大<span style="color: black;">都数</span>人<span style="color: black;">第1</span>反应都是CNN,而<span style="color: black;">连续</span>关注这些<span style="color: black;">行业</span>发展的人,则会进一步联想到近几年大火的Transformer,它不仅在自然语言<span style="color: black;">关联</span>任务上表现优秀,在图像<span style="color: black;">行业</span><span style="color: black;">一样</span>取得了相当不错的效果。<strong style="color: blue;">去年10月份Google推出的Vision Transformer (ViT),就在图像识别任务上用更高的学习效率,达到了不亚于ResNet的精度</strong>。当一个模型性能达到SOTA之后,很自然地,人们就会想去探究它的原理,并和先前的模型进行比较。今年上半年,普林斯顿大学就从错误一致性的<span style="color: black;">方向</span>比较了ViT与ResNet,<span style="color: black;">最后</span><span style="color: black;">发掘</span>ViT<span style="color: black;">更易</span>错判形状<span style="color: black;">类似</span>的物体,而ResNet的识别更依赖纹理信息 。<span style="color: black;">近期</span>,Google则<strong style="color: blue;">对网络本身进行了进一步的探索,试图<span style="color: black;">经过</span><span style="color: black;">跟踪</span>模型学习表征的过程,确认ViT和ResNet在处理图像的原理上<span style="color: black;">是不是</span>一致</strong>。</p><img src="https://mmbiz.qpic.cn/sz_mmbiz_png/gYUsOT36vfqlNsuAk9Ja0XNTILBOjyPXe7L4JJicATzBnEhictic1fOOm2dyEm9dhQGRAx4aiakAygjHSMAxx562Gw/640?wx_fmt=png&amp;tp=webp&amp;wxfrom=5&amp;wx_lazy=1&amp;wx_co=1" style="width: 50%; margin-bottom: 20px;">
    <p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">论文链接:<span style="color: black;">http://arxiv.org/abs/2108.08810</span></p>
    <h2 style="color: black; text-align: left; margin-bottom: 10px;"><span style="color: black;">办法</span></h2>
    <h3 style="color: black; text-align: left; margin-bottom: 10px;">ResNet与ViT回顾</h3>
    <p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">在<span style="color: black;">起始</span><span style="color: black;">科研</span>区别之前,<span style="color: black;">咱们</span>先快速回顾一下ResNet和ViT分别是谁,长什么样。</p>
    <p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><span style="color: black;">首要</span>是 <strong style="color: blue;">ResNet</strong>,深度残差网络,2015年ImageNet挑战赛冠军。<span style="color: black;">经过</span>如下图所示的残差块实现网络层上的跳跃,从而将模型的优化<span style="color: black;">目的</span>从寻找函数的等价映射改为了逼近零,弱化了网络变深对模型性能的<span style="color: black;">消极</span>影响。<span style="color: black;">日前</span>为止,<strong style="color: blue;">基于ImageNet数据集训练的ResNet50仍然是图像处理任务中<span style="color: black;">运用</span>频率最高的预训练模型之一</strong>。</p>
    <p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><img src="https://mmbiz.qpic.cn/sz_mmbiz_png/gYUsOT36vfqlNsuAk9Ja0XNTILBOjyPXCPOykFvLEKebDncAx4gAWKlQicVEOpL5ow6xnBnQxCUmfVU1mtzickMg/640?wx_fmt=png&amp;tp=webp&amp;wxfrom=5&amp;wx_lazy=1&amp;wx_co=1" style="width: 50%; margin-bottom: 20px;"></p>ResNet核心部件——残差块<img src="https://mmbiz.qpic.cn/sz_mmbiz_jpg/gYUsOT36vfqlNsuAk9Ja0XNTILBOjyPXlJhfHe5fGpyqBN90rPawIea9WZtYiaxLAGmQ9CEvVz2JSBzwYmVKXOw/640?wx_fmt=jpeg&amp;tp=webp&amp;wxfrom=5&amp;wx_lazy=1&amp;wx_co=1" style="width: 50%; margin-bottom: 20px;">ResNet结构<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">而 <strong style="color: blue;">ViT</strong> 则是从NLP<span style="color: black;">行业</span>红的发紫的Transformer改编而来。编码-解码的结构,中间加一个多头<span style="color: black;">重视</span>力机制。ViT<span style="color: black;">重点</span>的改变<span style="color: black;">便是</span>在输入端,<strong style="color: blue;">将图像进行了分块和降维,从而将图像变成一种类似于词语编码的表达方式</strong>,方便了后续处理。经过了这一小步的改动,ViT在JFT-300M(ImageNet的300倍放大版,3亿张图像)上预训练的模型成功超越了ResNet152 。</p><img src="https://mmbiz.qpic.cn/sz_mmbiz_jpg/gYUsOT36vfqlNsuAk9Ja0XNTILBOjyPXI42JMNhfv8w0ibuaXSyVlcjcLpDFiahibq0lYa8sQWqOIQ1x3J4SF5ELg/640?wx_fmt=jpeg&amp;tp=webp&amp;wxfrom=5&amp;wx_lazy=1&amp;wx_co=1" style="width: 50%; margin-bottom: 20px;">ViT结构<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">超越ResNet虽然有难度,但<span style="color: black;">亦</span>算不上大<span style="color: black;">资讯</span>。<strong style="color: blue;">ViT能<span style="color: black;">导致</span>讨论热度的<span style="color: black;">重点</span><span style="color: black;">原由</span>是它跨界了,不仅制霸NLP,如今还可能给CV翻篇</strong>。<span style="color: black;">这般</span>的可能性自然是让人坐不住了,<span style="color: black;">倘若</span>存在一个<span style="color: black;">办法</span>能<span style="color: black;">做为</span><span style="color: black;">区别</span>模态<span style="color: black;">区别</span>类型任务的通解,那AI大一统时代说不定<span style="color: black;">亦</span>就不远了。<span style="color: black;">那样</span>,在这一美好愿望成真之前,更需要<span style="color: black;">小心</span>地检验:<strong style="color: blue;">Transformer 处理图像时获取的特征<span style="color: black;">是不是</span>和之前主流的 CNN 有所区别</strong>?</p>
    <p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><span style="color: black;">倘若</span>它们虽然处理数据<span style="color: black;">办法</span>有所差异,但决定输出的特征是高度<span style="color: black;">类似</span>的,则<span style="color: black;">寓意</span>着<span style="color: black;">日前</span>CV的模型<span style="color: black;">已然</span>接近了人类判断图像时所基于的依据</p>
    <p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">而<span style="color: black;">倘若</span>模型中决定性的特征有所<span style="color: black;">区别</span>,则<span style="color: black;">能够</span>进一步<span style="color: black;">科研</span>哪一种特征对信息的表征效果更好,<span style="color: black;">或</span>两类模型还能相互借鉴,从而<span style="color: black;">得到</span>新一轮的性能<span style="color: black;">提高</span>。</p>
    <h3 style="color: black; text-align: left; margin-bottom: 10px;">比较<span style="color: black;">办法</span>——CKA</h3>
    <p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">基于<span style="color: black;">这般</span>的动机,Google用Centered Kernel Alignment (CKA)对ResNet和ViT的<span style="color: black;">有些</span>关键层进行了检验。<span style="color: black;">首要</span><span style="color: black;">认识</span>一下CKA这种<span style="color: black;">办法</span>。<strong style="color: blue;">CKA是Google在2019年提出的,用于衡量神经网络中层与层之间<span style="color: black;">类似</span>度的指标</strong> 。假设想要检测的两层网络分别有和个神经元,取个样本<span style="color: black;">经过</span>模型,则分别<span style="color: black;">能够</span>获取 和 的表征矩阵。基于点积的<span style="color: black;">类似</span>性,<span style="color: black;">首要</span><span style="color: black;">能够</span><span style="color: black;">得到</span></p>
    <p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">此处下标F<span style="color: black;">表率</span>Frobenius范数。<span style="color: black;">按照</span>上式,<span style="color: black;">能够</span>推导出</p>
    <p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><span style="color: black;">而后</span><span style="color: black;">按照</span>Hilbert-Schmidt Independence Criterion (HSIC)的表达式,将 中的列<span style="color: black;">经过</span>核函数对应到 上,使得 ,<span style="color: black;">能够</span>得到HISC的经验估计值</p>
    <p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">此处 是中心矩阵,即 。归一化之后即为CKA指标</p>
    <p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">这个指标的<span style="color: black;">优良</span>在于,它能够确定基于<span style="color: black;">区别</span>随机初始化和<span style="color: black;">区别</span>宽度训练的神经网络的<span style="color: black;">隐匿</span>层之间的对应关系。<span style="color: black;">因此呢</span>,适合用于寻找ResNet和ViT中<span style="color: black;">是不是</span>存在有对应的网络层。</p>
    <h2 style="color: black; text-align: left; margin-bottom: 10px;">关键结论</h2>
    <p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">利用CKA,<span style="color: black;">科研</span>者<span style="color: black;">发掘</span><strong style="color: blue;">ResNet和ViT在最接近输入的网络底层(lower layer)时,表征的内容持有<span style="color: black;">很强</span>的<span style="color: black;">类似</span>度</strong>;然而,<span style="color: black;">因为</span>两个网络<strong style="color: blue;">处理表征的方式有很大区别</strong>,在层层传递之后,在接近输出的网络上层(higher layer)两者的表征<span style="color: black;">最后</span>区别很大。</p><img src="https://mmbiz.qpic.cn/sz_mmbiz_jpg/gYUsOT36vfqlNsuAk9Ja0XNTILBOjyPXOt4DXmF1TLHjdJ1BP4M2oftMgHLvOggImIGbjyeFT79HqoNyVd1IXg/640?wx_fmt=jpeg&amp;tp=webp&amp;wxfrom=5&amp;wx_lazy=1&amp;wx_co=1" style="width: 50%; margin-bottom: 20px;">在网络的底层,ViT和ResNet还有<span style="color: black;">很强</span>的<span style="color: black;">类似</span>度<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">两个在底层表征上有<span style="color: black;">类似</span>之处的网络,居然长着长着发展到了两个方向。<span style="color: black;">由于</span>ResNet在处理输入时,需要经过<span style="color: black;">更加多</span>层<span style="color: black;">才可</span><span style="color: black;">得到</span>类似于ViT底层的表征,由此<span style="color: black;">诱发</span>了一个<span style="color: black;">恰当</span>的猜想:<strong style="color: blue;">两个网络在整合全局信息的能力上存在差异</strong>。</p>
    <p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">为了验证这个想法,<span style="color: black;">科研</span>者先是对ViT的<span style="color: black;">区别</span>层中,<span style="color: black;">重视</span>力集中区域的距离进行的计算,<span style="color: black;">她们</span><span style="color: black;">发掘</span>,<strong style="color: blue;">ViT无论是低层还是高层,都是局部和全局信息混杂的</strong>,相比之下,<strong style="color: blue;">ResNet更为严格地遵守从局部特征提炼全局特征的处理过程</strong>。这是<span style="color: black;">引起</span>两个网络中表征的差异逐层<span style="color: black;">增多</span>的一大关键<span style="color: black;">原因</span>。</p><img src="https://mmbiz.qpic.cn/sz_mmbiz_jpg/gYUsOT36vfqlNsuAk9Ja0XNTILBOjyPXXTY5tO1lV42ia2icnmyQ1S238LglibWqccNWp4SIuMDOcu39ib1VbgaaXQ/640?wx_fmt=jpeg&amp;tp=webp&amp;wxfrom=5&amp;wx_lazy=1&amp;wx_co=1" style="width: 50%; margin-bottom: 20px;">ResNet的有效感受域有一个<span style="color: black;">知道</span>地从局部“生长”到全局的过程,而ViT只是在感知局部和全局信息的权重上<span style="color: black;">出现</span><span style="color: black;">调节</span>
    <p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">另一方面,这种差异的<span style="color: black;">原由</span>还可能来自ViT从底层到高层的<span style="color: black;">类似</span>度比ResNet高的这一现象。<span style="color: black;">科研</span>者认为,是<strong style="color: blue;">ViT中的跳跃连接结构 (skip connection)<span style="color: black;">守护</span>了底层到高层的表征传递</strong>,如下图所示,<span style="color: black;">倘若</span>撤掉特定块区上的这种连接结构,对应的表征信息就会立刻“失传”。</p><img src="https://mmbiz.qpic.cn/sz_mmbiz_jpg/gYUsOT36vfqlNsuAk9Ja0XNTILBOjyPXO9FeJyricBkmc3V8OHRraJdgBef7rT7Ryib4JqIOfcnwbNxEjSH1QvoQ/640?wx_fmt=jpeg&amp;tp=webp&amp;wxfrom=5&amp;wx_lazy=1&amp;wx_co=1" style="width: 50%; margin-bottom: 20px;">
    <p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><span style="color: black;">因为</span><span style="color: black;">以上</span>在处理信息过程上的差异,<span style="color: black;">最后</span>,ViT的高层表征能够更精细地<span style="color: black;">保存</span>局部空间信息。尤其是到了最后<span style="color: black;">归类</span>的关键时刻,ResNet还进行了一次全局的平均池化,进一步<span style="color: black;">明显</span>地减少了高层中局部信息的精细度。</p><img src="https://mmbiz.qpic.cn/sz_mmbiz_jpg/gYUsOT36vfqlNsuAk9Ja0XNTILBOjyPX45qNsh8ibrdlEfC3LDo505a5rfic7npicQ7EHTen4mF73DNghkibId6Ozg/640?wx_fmt=jpeg&amp;tp=webp&amp;wxfrom=5&amp;wx_lazy=1&amp;wx_co=1" style="width: 50%; margin-bottom: 20px;">ViT的高层<span style="color: black;">保存</span>的局部空间信息<span style="color: black;">更加多</span>
    <p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><span style="color: black;">经过</span>全方位的比较,<span style="color: black;">包含</span>将<span style="color: black;">隐匿</span>层揪出来细细观察。<span style="color: black;">最后</span>,<span style="color: black;">科研</span>者下定结论:虽然它们在性能上<span style="color: black;">平起平坐</span>,但<strong style="color: blue;">以ResNet为<span style="color: black;">表率</span>的CNN与ViT在处理信息的工艺原理上大相径庭</strong>。</p>
    <h2 style="color: black; text-align: left; margin-bottom: 10px;">最后的话</h2>
    <p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">其实<span style="color: black;">文案</span>的结论<span style="color: black;">无</span><span style="color: black;">尤其</span>出人意料的<span style="color: black;">地区</span>,毕竟ResNet和ViT的模型结构摆在那里,前期对两个网络分别的原理分析论文<span style="color: black;">亦</span>不少了,Google这次的工作其实是<strong style="color: blue;">把<span style="color: black;">大众</span>直觉性经验性的结论用可复现的实验规范地落在了纸上,并且<span style="color: black;">奋斗</span>夸夸ViT,好吸引<span style="color: black;">更加多</span><span style="color: black;">科研</span>者采用</strong>。<span style="color: black;">导致</span>白鹡鸰<span style="color: black;">重视</span>的是,在<span style="color: black;">全部</span>验证过程中,ViT模型是Google的,JFT-300M数据集是Google的,CKA度量指标<span style="color: black;">亦</span>是Google的,这一整套完整的测评走下来,再一次让人不得不感叹Google的<span style="color: black;">研究</span>实力果然引领潮流。</p><img src="https://mmbiz.qpic.cn/sz_mmbiz_jpg/gYUsOT36vfqlNsuAk9Ja0XNTILBOjyPXicaRDN60MYO4KqvkpU5T5j1zNo32Cn4Ou9RukgIQNiaFQibFLgsS1icNuQ/640?wx_fmt=jpeg&amp;tp=webp&amp;wxfrom=5&amp;wx_lazy=1&amp;wx_co=1" style="width: 50%; margin-bottom: 20px;">
    <p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">不仅如此,<strong style="color: blue;">论文的写作<span style="color: black;">亦</span>确实又一次展现了业内标杆的风度,<span style="color: black;">做为</span>一篇原理解释型的<span style="color: black;">文案</span>,它<span style="color: black;">无</span>将一大坨公式怼到读者脸上,而是<span style="color: black;">经过</span>一系列的自问自答,<span style="color: black;">恰当</span>引导读者思路历程,清晰地说明了实验的动机和<span style="color: black;">每一个</span><span style="color: black;">过程</span>的<span style="color: black;">道理</span>,并用图像佐证观点</strong>。这简直是泥石流中的一股清流,让近期饱受各类奇葩论文的白鹡鸰流下了感动的泪水,并觉得<span style="color: black;">特别有</span>写作上的借鉴价值。</p>
    <p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><strong style="color: blue;"><span style="color: black;">参考文献</span></strong></p>
    <p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><span style="color: black;"> Are Convolutional Neural Networks or Transformers more like human vision? https://arxiv.org/abs/2105.07197</span></p>
    <p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><span style="color: black;"> An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale https://arxiv.org/abs/2010.11929</span></p>
    <p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><span style="color: black;"> Similarity of Neural Network Representations Revisited https://arxiv.org/abs/1905.00414</span></p>
    <p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><span style="color: black;">本文亮点总结</span></p><span style="color: black;"><span style="color: black;">1.</span></span><span style="color: black;">ViT无论是低层还是高层,都是局部和全局信息混杂的,相比之下,ResNet更为严格地遵守从局部特征提炼全局特征的处理过程。这是<span style="color: black;">引起</span>两个网络中表征的差异逐层增加的一大关键<span style="color: black;">原因</span>。</span><span style="color: black;"><span style="color: black;">2.</span></span><span style="color: black;"><span style="color: black;">科研</span>者认为,是ViT中的跳跃连接结构 (skip connection)<span style="color: black;">守护</span>了底层到高层的表征传递,<span style="color: black;">倘若</span>撤掉特定块区上的这种连接结构,对应的表征信息就会立刻“失传”。</span>
    <p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><span style="color: black;"><span style="color: black;">倘若</span>觉得有用,就请分享到朋</span><span style="color: black;">友圈吧!</span></p><span style="color: black;">△点击卡片关注极市平台,获取</span><span style="color: black;">最新CV干货</span>
    <p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><span style="color: black;">公众号后台回复“</span><span style="color: black;"><span style="color: black;"><span style="color: black;">CVPR21检测</span></span></span><span style="color: black;">”获取CVPR2021<span style="color: black;">目的</span>检测论文下载~</span></p><span style="color: black;">极市干货</span><span style="color: black;">深度学习环境搭建:</span><a style="color: black;"><span style="color: black;"><span style="color: black;">怎样</span>配置一台深度学习工作站?</span></a><span style="color: black;"><span style="color: black;">实操教程:</span></span><a style="color: black;">OpenVINO2021.4+YOLOX<span style="color: black;">目的</span>检测模型测试<span style="color: black;">安排</span></a><span style="color: black;">|</span><a style="color: black;"><span style="color: black;">为何</span>你的显卡利用率总是0%?</a><span style="color: black;">算法技巧(trick):</span><a style="color: black;">图像<span style="color: black;">归类</span>算法优化技巧</a><span style="color: black;">|</span><a style="color: black;">21个深度学习调参的实用技巧</a>
    <p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><img src="https://mmbiz.qpic.cn/sz_mmbiz_jpg/gYUsOT36vfqlNsuAk9Ja0XNTILBOjyPXFklamoAG5euiavJ8Qxaf92ic2ia7vMyl3t2ibdAM9PpCZ0mlXib0azPpNAw/640?wx_fmt=jpeg&amp;tp=webp&amp;wxfrom=5&amp;wx_lazy=1&amp;wx_co=1" style="width: 50%; margin-bottom: 20px;"></p><img src="https://mmbiz.qpic.cn/sz_mmbiz_png/gYUsOT36vfoUYV6mWLdPe5kV2OI9VlvYgOVWXC3rJNaPwuHYqE6HDBveew75diaHIqp2aCsiabjj1BUblDQQj68g/640?wx_fmt=png&amp;tp=webp&amp;wxfrom=5&amp;wx_lazy=1&amp;wx_co=1" style="width: 50%; margin-bottom: 20px;">
    <p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">#&nbsp;<span style="color: black;"><span style="color: black;">CV技术社群邀请函&nbsp;</span></span>#</p><img src="https://mmbiz.qpic.cn/sz_mmbiz_png/gYUsOT36vfoGLNtlN9TlLJCSljP2eNRDDUJjBlJ5iamHI8DYEVhCOf4N0IhF8LQmZGUDLwciaMKuMOkmJIsfDLPQ/640?wx_fmt=png&amp;tp=webp&amp;wxfrom=5&amp;wx_lazy=1&amp;wx_co=1" style="width: 50%; margin-bottom: 20px;"><span style="color: black;">△长按添加极市小助手</span><span style="color: black;"><span style="color: black;">添加极市小助手<span style="color: black;">微X</span></span><span style="color: black;">(ID : cvmart4)</span></span>
    <p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><span style="color: black;"><span style="color: black;">备注:</span><span style="color: black;">姓名-学校/<span style="color: black;">机构</span>-<span style="color: black;">科研</span>方向-城市(如:小极-北大-<span style="color: black;">目的</span>检测-深圳)</span></span></p>
    <p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><span style="color: black;"><span style="color: black;"><span style="color: black;">就可</span>申请加入极市</span><span style="color: black;"><span style="color: black;">目的</span>检测/图像分割/工业检测/人脸/医学影像/3D/SLAM/自动驾驶/超分辨率/姿态估计/ReID/GAN/图像<span style="color: black;">加强</span>/OCR/视频理解</span><span style="color: black;">等技术交流群</span></span></p>
    <p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><span style="color: black;"><span style="color: black;">每月大咖直播分享、真实项目<span style="color: black;">需要</span>对接、求职内推、算法竞赛、干货<span style="color: black;">新闻</span>汇总、与</span><span style="color: black;">10000+</span><span style="color: black;">来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企视觉<span style="color: black;">研发</span>者互动交流~</span></span></p><span style="color: black;"><span style="color: black;">觉得有用麻烦给个在看啦~</span></span><span style="color: black;"><span style="color: black;"><img src="https://mmbiz.qpic.cn/mmbiz_gif/gYUsOT36vfpFnEj3CMde0iaOKfGiaAmbfRRPePWld5pUR0niaibYOvNP5cx7nKS5I6180xeya4ZIYJClvHqSpQecqA/640?wx_fmt=gif&amp;tp=webp&amp;wxfrom=5&amp;wx_lazy=1" style="width: 50%; margin-bottom: 20px;"></span></span>




4zhvml8 发表于 2024-10-5 21:06:25

你的话语如春风拂面,让我感到无比温暖。

4lqedz 发表于 2024-10-13 17:01:11

期待楼主的下一次分享!”
页: [1]
查看完整版本: 谷歌:一篇论文,让科研者吃我三份安利