我们在轻轻地是热情的工程师,他们想要更加高效地学习。那个'为什么 - 与我们的社区一起 - 我们希望普及使用自我监督方法来理解和策划原始图像数据。我们的解决方案可以在任何数据注释步骤之前应用,并且学习的表示可用于可视化和分析数据集。这允许通过先进的过滤选择用于模型训练的最佳核心样本集。
我们强烈建议您在专用VirtualEnv中轻轻安装,以避免与您的系统包冲突。
轻轻地,您可以使用Pytorch的全部功率在模块化道中使用最新的自我监督学习方法。试验不同的骨干,模型和损耗功能。该框架旨在易于使用地面。
进口火炬导入卷炬轻轻导入。模型随着型号导入轻微。损失作为损失导入轻微。数据作为数据#Collate函数将随机变换应用于输入图像Collate_fn =数据。 ImageCollateFunction(input_size = 32,cj_prob = 0.5)#从映像文件夹数据集=数据中创建数据集。轻型浪费塔(Input_dir =' ./我/可爱/猫/数据集/')#构建一个pytorch dataloader dataloader =火炬。 utils。数据。 DataLoader(DataSet,#将DataSet传递给Dataloader Batch_size = 128,#大量批量大小通过学习Shuffle = True帮助,#shuffling很重要!Collate_fn = Collate_FN)#应用转换到输入图像#使用Reset Backbone Reset =浪漫。楷模。 reset。 RESET18()RESET = NN。顺序(*列表(Reset。儿童())[: - 1])#构建SIMCLR模型模型=模型。 SIMCLR(RESET,NUM_FTRS = 512)#使用标准进行自我监督的学习标准=损失。 ntxentloss(温度= 0.5)#获取一个Pytorch优化器优化器=火炬。 Optim。 SGD(模型。参数(),lr = 1e-0,weight_decay = 1e-5)
通过交换模型和Theloss功能,您可以轻松使用像Simsiam的另一个型号。
#构建Simsiam型号=型号。 Simsiam(Reset,Num_Ftrs = 512)#使用Simsiam Lock Function Criterion =丢失。 symnegcosinesimilarityloss()
通过命令行界面(CLI)也可以轻松访问.TO在图像文件夹上培训SIMCLR模型,您可以简单地运行以下命令:
目前在CIFAR10实施了模型及其准确性。所有型号都已使用KNN进行评估。我们通过时代报告最大测试精度以及最大GPU存储器消耗。此基准测试中的所有型号都使用相同的增强以及相同的Reset-18骨干。训练精度设置为FP32,使用SGD用作Cosinelr的优化器。CIFAR10上的OPOCH在V100 GPU上需要35秒。在此了解有关Cifar10基准的更多信息
您可以在下面看到轻质Python包中存在的不同概念的示意图概述。我们的文档中的粗体术语在我们的文档中更详细地解释。
要安装dev依赖项(例如贡献框架),您可以使用以下命令:
单元测试位于Tests文件夹中,我们建议使用PyTest运行它们。有两个测试配置。默认情况下,只运行子集。这是更快的,应该不到一分钟。您可以使用它使用
为什么我要关心自我监督的学习? aren' t预先接受的模型从想象中的转移学习更好?
在去年的科学家中,自我监督的学习变得越来越受欢迎,因为所学习的表现在下游任务中表现出色。这意味着它们比其他类型的预训练模型更好地捕获图像中的重要信息。通过在数据集上培训自我监督模型,您可以确保表示有关图像的所有必要信息。
如果您遇到错误或有关我们应该实施的功能的想法,请创建一个问题。您还可以通过攻击此存储库并创建PR来添加您自己的代码。有关如何用代码贡献的更多细节在我们的贡献指南中。
是的,这个框架完全免费使用,我们提供代码。 我们相信我们需要使训练深入学习模型更多的数据效率以实现广泛的采用。 实现这一目标的一步是利用自我监督的学习。 公司背后的公司轻轻致力于保持此框架开源。 培训自我监督模型只是解决方案的一部分。 这家公司背后轻轻侧重于通过监督模型创建的加工和分析.By,我们称之为自我监督的主动学习循环,我们帮助公司更有效地了解并与其数据一起工作。 此框架是我们平台的界面,可以轻松上传和下载数据集,嵌入式和模型。 成本平台将额外的功能成本,此框架将始终免费(即使是商业用途)。