您的位置  > 互联网

2022年最具爆发力的10大项目,你造吗?

1、飞甲、hub、BML的升级,有目共睹,快速、简洁、炫酷。 继续期待平台自研。

2,a,很棒的文档去年十月发布如果你像我一样并且编写任何你认为的代码,那就去做吧!

b. 应用程序发布者。 如果您像我一样并且想在运行代码后使用沙箱,那就去做吧!

不管元宇宙多么废话,虚拟现实、增强现实、机器神经网络、人机界面都不是废话。 就勤奋的应用层面开发而言,国内年轻的小伙伴是世界第一的。 几乎没有一个项目团队没有中国人的身影。 的。

希望我们这一代人能够有更多原理层面的突破和发现。 加油,2022年注定不平凡!

附加图片:

当然,上图中这个功能的速度相当于本地上传。 好处是我们经常通过云盘来共享和传输大数据集,而且都在云盘里。 至少不需要把它们拉回来重新上传。

业内人士都知道即时传输没有实现的原因——百度各部门各自为战,API碎片化,资源浪费。 但是,我相信,一定会解决的! 如果不利用谷歌半天极限T4舞台聚集人气人才,那么未来最优秀的人也不会留下来!

2020年12月23日更新:我已经有一段时间没有测试了。 版本已更新至1.8.5稳定版和2.0的rc1。 没有太大的变动或变化,CUDA 就紧随其后,来到了 11。

2020年4月5日更新:我们来看看微软这一年半发布的牛逼项目:nni //nni/blob//.md

简单来说,这就是深度学习,神经网络的自动管理包。

官方认为中文是第二语言,请用中文读我。

但是,关键点:看看它支持的框架......

什么是主流?

哈哈哈。 已经一年半了,没有……粘贴。

在经营企业或发展企业时,作为人不能做:

你在欺骗自己!

格局决定高度,高度决定未来!

4.27.2020更新:果然升级后,连续环境直接写在新开书的头部,大家可以自行调整。 只要把我下面写的放进去就可以了。 其实对于colab来说,那些大包也可以这样组织。 但这对于百度来说尤其必要。 为什么呢,因为在我们的网络环境下,git和wget在其他国家是禁用的。

附上一段对大家来说特别重要的代码(飞翔也顶了,不过只是为了pip持久化而写的,没有把核心原理解释清楚。另外,我也不喜欢这种写法,所以):

系统

sys.path +=['/usr/local/lib/.7/site-','/to/your/ 目录/路径']

最后一个路径文件夹下的所有包(不包括路径名本身)都可以是XX,呈层级关系,从XX开始。

虽然指定路径是常识,但我发现很多兄弟不明白包和自定义程序怎么玩。 那么每次做程序是不是都要写一堆代码呢? ? ? ? ?

随着DL3工业级部署的成熟,框架HUB时代已经到来。 我觉得很多年轻人不应该太造作。 我们使用灯泡,而不是开发和生产灯泡。 人工智能的细化和分类必须变得越来越垂直。 你只需要在你的分支上做得足够好、足够深入,剩下的就交给其他兄弟吧。 飞片HUB中,我推荐语义分割接口,是DL3-xp65-。 对于图形图像CV类来说,确实省事了。 虽然这个产品基本上是一个完整的复制品,但它确实比另一个更轻、更快。 哈哈哈。 这给了我一种错觉。 谁模仿了谁?

另:有能力就去学吧/。 这个产品以后会是你三天用一次的东西(飞剑里的中文教程很简单)。

2020年4.14更新:在此期间,各种优秀产品层出不穷。 一帮兄弟疯狂发布各个领域的新车型。 估计因为疫情的原因,大家都在家里做研发,无法出去闲逛。 你可以亲自去看看。 我认为量子比特可能无法书写。

2020年4月11日更新:百度从4.5开始调整时长,从10小时调整为2小时。 白天基本上是无法打开G机的,这说明社区的这个项目已经成为了一个大问题。 封闭无法带来效率和便利,无法满足当前人工智能的大规模计算需求。 这样一来,其相对于其他平台的优势将完全丧失,运营模式似乎也需要调整。 在全世界范围内,任何新的开源内容都失去了一大群人的验证。 无论框架有多少优点,都是没有意义的。 其发展思路偏离了互联网发展的需要。 我的一些兄弟搞研发,我最近也无奈不干了。

有一次我想让他们改一下上传限制(现在已经升级了),管理大哥告诉我,这个平台是定位于大学生的。

所以我想知道,为什么?

因为,如果是大学生用的,为什么还要限制其他框架呢? 很多同学才刚刚开始接触它。 他们确实需要学习各种成熟的框架。 他们需要以最便捷的方式进入,然后一步步深入。 最好的方式就是通过编码学习,完成自己的功能实现。 这一步需要大量的时间看论文、看别人的git...

因此,当你进行限制时,你就将大学生和新人拒之门外。 这不是矛盾吗?

:::::::::::::::::::::原文::::::::::::::::::::::::::: :::::::::::::::::::::::::::::::::::::::

:::::::::::::::::::::原文::::::::::::::::::::::::::: :::::::::::::::::::::::::::::::::::::::

:::::::::::::::::::::原文::::::::::::::::::::::::::: :::::::::::::::::::::::::::::::::::::::

我这里写的方法是:从现在开始,无论你重新打开多少个新项目(核心中的核心),都不需要重新安装。

只需不到5秒即可取帧! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! !

好吧,我就简单的把所有文件和torch都补齐了,首先添加whl页面(先别急着下载,下载前先看一下):

-GPU:

//-GPU/

火炬 GPU:

/whl/.html

虽然,我不太喜欢百度的一些风格。 但有一点要说的是,飞浆有方便的地方,V100香也在那里。 另外,百度AI云限制了其他框架,但终端到目前为止可以使用,并且使用流畅。 我和一些兄弟一直在论坛上批评他们狭隘,说他们不支持这些框架。 这并不是说他们在技术上完全不支持,而是他们开发自己的框架的策略在概念上是不合适的(为什么?因为很多新技术往往处于研究的最前沿。很多论文和项目甚至没有经过验证)作者自己(全球开源率不到6%),当全网开放讨论的时候,大家的流程是,先用最方便的框架完成研究本身,然后再研究转框架。传输的目的是为了更高效,而不是为了框架而框架。如果一项技术特别适合,那么它应该适合咖啡和母乳。应该是咖啡和牛奶的区别。如果它适合喝牛奶就应该喝牛奶,不能本末倒置)。 百度的这一策略导致了自有平台的使用效率下降。 相反,限制了自身的发展壮大,无法活跃社区,无法疏导交通,成本居高不下。

至于技术:

1.各位不懂的请明确一点,免费版是CPU版本,支持毛线GPU版本(Colab的笔记本不是也可以选择硬件加速器吗?NONE\GPU\TPU,一样的东西)? 计算卡版本(实际上是免费的)是v100和GPU版本! 先输入nvcc -V,然后判断是否支持。

(我发现有些朋友还是不明白cpu、gpu、cuda、cudnn、nvcc之间的关系。补充:cpu,机器的心脏,处理所有资源的调度和供给分配。gpu,你懂的作为显卡的心脏,图形处理器,我们平时说的就是产生这个的。cuda是什么?一个平台,一个框架,一种“语言”,用来发挥GPU计算功能的东西。cudnn ,函数集,深度学习函数集。nvcc就像gcc一样,它是一个编译器。它编译什么?它编译cuda的‘语言’。​​你再问我就瞎了好吗!)

2.为了防止更多的朋友不明白,我把方法写下来:

火炬

方法一(极简,不改变虚拟环境,直接走):

进入终端(重要的一点,不要忘记最基本的东西,Linux最流行的就是终端!):

1.0.0

pip torch==1.0.0 ==0.2.1 -i/---主机

1.2.0

pip 火炬==1.2.0+cu92 ==0.4.0+cu92 -f /whl/.html

成功。 使用! 你明白吗,90%的故障是你安装了torch的CPU版本或者你期望cuda gpu匹配,怎么匹配,不假才奇怪!

至于节省一些安装算力卡和创建持久目录的时间,这里就不写了。 您可以自行研究以避免进一步的麻烦。

个人经验是,下载几个大包,扔数据集,拉回home,然后改成官方标准文件名进行安装是最方便的。 另外,torch和torch必须同时安装(指网络安装,whl忽略)。 如果它们分开了,我们将帮助您将torch升级到1.4。

OK,你喜欢折腾,又痴迷conda(有时候不得不用),方法二:

输入终端并:

步骤1,-n --env(上面写的)

步骤2,conda -n --env ==1.2.0 ==0.4.0 ==9.2 -c 打开--yes;