网络安全的2021还会更差吗?
进展1:OpenAI发布全球规模最大的预训练语言模型GPT-3 2020年5月,OpenAI发布了迄今为止全球规模最大的预训练语言模型GPT-3。GPT-3具有1750亿参数,训练所用的数据量达到45TB,训练费用超过1200万美元。对于所有任务,应用GPT-3无需进行任何梯度更新或微调,仅需要与模型文本交互为其指定任务和展示少量演示即可使其完成任务。GPT-3在许多自然语言处理数据集上均具有出色的性能,包括翻译、问答和文本填空任务,还包括一些需要即时推理或领域适应的任务等,已在很多实际任务上大幅接近人类水平。 进展2:DeepMind的AlphaFold2破解蛋白质结构预测难题 2020年11月30日,Google旗下DeepMind公司的AlphaFold2人工智能系统在第14届国际蛋白质结构预测竞赛(CASP)中取得桂冠,在评估中的总体中位数得分达到了92.4分,其准确性可以与使用冷冻电子显微镜(CryoEM)、核磁共振或X射线晶体学等实验技术解析的蛋白质3D结构相媲美,有史以来首次把蛋白质结构预测任务做到了基本接近实用的水平。《自然》(Nature)杂志评论认为,AlphaFold2算法解决了困扰生物界“50年来的大问题”。 进展3:深度势能分子动力学研究获得戈登·贝尔奖
2020年11月19日,在美国亚特兰大举行的国际超级计算大会SC20上,智源学者、北京应用物理与计算数学研究院王涵所在的“深度势能”团队,获得了国际高性能计算应用领域最高奖项“戈登·贝尔奖”。“戈登·贝尔奖”设立于1987年,由美国计算机协会(ACM)颁发,被誉为“计算应用领域的诺贝尔奖”。该团队研究的“分子动力学”,结合了分子建模、机器学习和高性能计算相关方法,能够将第一性原理精度分子动力学模拟规模扩展到1亿原子,同时计算效率相比此前人类最好水平提升1000倍以上,极大地提升了人类使用计算机模拟客观物理世界的能力。美国计算机协会(ACM)评价道,基于深度学习的分子动力学模拟通过机器学习和大规模并行的方法,将精确的物理建模带入了更大尺度的材料模拟中,将来有望为力学、化学、材料、生物乃至工程领域解决实际问题(如大分子药物开发)发挥更大作用。 过度自信是不好的。 过度自信会阻止您取得进步,因为您对自己的期望过高。 那里的人比你更擅长于此。当您看着这些人或阅读他们的代码时,很自然会感到无能。 取得任何进展的第一步是要承认它们比您更好。 当然是。 他们花了比您更多的时间,并且花了多年的时间学习如何编码。如果您想变得更好,那么您也需要投入时间和精力。 实际上,即使是经验丰富的程序员也知道他们不擅长编码。承认还有很多东西需要学习的能力是任何程序员最重要的特征之一。 您不可能完全了解该字段所需的一切。科技行业在不断发展,总是会有新的东西要学习。 了解您不可能学到一切。同时,尝试通过跟上不断发展的技术来获取尽可能多的知识。 学习编码需要大量的精力。 您将需要有正确的态度,养成良好的习惯。您养成的这些习惯将使您的职业生涯更长一段路,而不仅仅是智力,能力或记忆能力。 为了克服对编程的恐惧,您首先需要了解学习曲线。接受您还不擅长的事实,并知道这还可以。 您学会了摔倒很多次然后重新站起来,从而学会了骑自行车。 可以将编程视为一辆自行车。 您跌倒的次数太多了,但这是唯一的学习方法。随着时间的流逝,您将掌握它,并且变得越来越好。
您只需要有适当的耐心和强,就可以在每次跌倒时恢复并继续。 (编辑:南通站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |