欢迎来到【U校源码】【虎嗅 源码】【connect源码分析】kshape算法源码_knapsack算法-皮皮网网站!!!

皮皮网

【U校源码】【虎嗅 源码】【connect源码分析】kshape算法源码_knapsack算法-皮皮网 扫描左侧二维码访问本站手机端

【U校源码】【虎嗅 源码】【connect源码分析】kshape算法源码_knapsack算法

2024-12-23 02:00:57 来源:{typename type="name"/} 分类:{typename type="name"/}

1.有一张人脸的算法算法侧脸像,如何用python及相关的源码库来计算人脸转过的角度。
2.减法聚类如何用Python实现
3.DETR解读

kshape算法源码_knapsack算法

有一张人脸的算法算法侧脸像,如何用python及相关的源码库来计算人脸转过的角度。

       这个很难办到,算法算法不过可以通过判断关键点的源码U校源码特点进行判断,但是算法算法准确率不高

       前言

       很多人都认为人脸识别是一项非常难以实现的工作,看到名字就害怕,源码然后心怀忐忑到网上一搜,算法算法看到网上N页的源码教程立马就放弃了。这些人里包括曾经的算法算法我自己。其实如果如果你不是源码非要深究其中的原理,只是算法算法要实现这一工作的话,人脸识别也没那么难。源码今天我们就来看看如何在行代码以内简单地实现人脸识别。算法算法

       一点区分

       对于大部分人来说,区分人脸检测和人脸识别完全不是虎嗅 源码问题。但是网上有很多教程有无无意地把人脸检测说成是人脸识别,误导群众,造成一些人认为二者是相同的。其实,人脸检测解决的问题是确定一张图上有木有人脸,而人脸识别解决的问题是这个脸是谁的。可以说人脸检测是是人识别的前期工作。今天我们要做的是人脸识别。

       所用工具

       Anaconda 2——Python 2

       Dlib

       scikit-image

       Dlib

       对于今天要用到的主要工具,还是有必要多说几句的。Dlib是基于现代C++的一个跨平台通用的框架,作者非常勤奋,一直在保持更新。Dlib内容涵盖机器学习、图像处理、数值算法、connect源码分析数据压缩等等,涉猎甚广。更重要的是,Dlib的文档非常完善,例子非常丰富。就像很多库一样,Dlib也提供了Python的接口,安装非常简单,用pip只需要一句即可:

       pip install dlib

       上面需要用到的scikit-image同样只是需要这么一句:

       pip install scikit-image

       注:如果用pip install dlib安装失败的话,那安装起来就比较麻烦了。错误提示很详细,按照错误提示一步步走就行了。

       人脸识别

       之所以用Dlib来实现人脸识别,是因为它已经替我们做好了绝大部分的工作,我们只需要去调用就行了。Dlib里面有人脸检测器,天气插件源码有训练好的人脸关键点检测器,也有训练好的人脸识别模型。今天我们主要目的是实现,而不是深究原理。感兴趣的同学可以到官网查看源码以及实现的参考文献。今天的例子既然代码不超过行,其实是没啥难度的。有难度的东西都在源码和论文里。

       首先先通过文件树看一下今天需要用到的东西:

       准备了六个候选人的放在candidate-faces文件夹中,然后需要识别的人脸test.jpg。我们的工作就是要检测到test.jpg中的人脸,然后判断她到底是候选人中的谁。另外的girl-face-rec.py是我们的python脚本。shape_predictor__face_landmarks.dat是已经训练好的人脸关键点检测器。dlib_face_recognition_resnet_model_v1.dat是训练好的ResNet人脸识别模型。ResNet是付邮试用源码何凯明在微软的时候提出的深度残差网络,获得了 ImageNet 冠军,通过让网络对残差进行学习,在深度和精度上做到了比

       CNN 更加强大。

       1. 前期准备

       shape_predictor__face_landmarks.dat和dlib_face_recognition_resnet_model_v1.dat都可以在这里找到。

       然后准备几个人的人脸作为候选人脸,最好是正脸。放到candidate-faces文件夹中。

       本文这里准备的是六张,如下:

       她们分别是

       然后准备四张需要识别的人脸图像,其实一张就够了,这里只是要看看不同的情况:

       可以看到前两张和候选文件中的本人看起来还是差别不小的,第三张是候选人中的原图,第四张微微侧脸,而且右侧有阴影。

       2.识别流程

       数据准备完毕,接下来就是代码了。识别的大致流程是这样的:

       3.代码

       代码不做过多解释,因为已经注释的非常完善了。以下是girl-face-rec.py

       # -*- coding: UTF-8 -*-

       import sys,os,dlib,glob,numpy

       from skimage import io

       if len(sys.argv) != 5:

       print "请检查参数是否正确"

       exit()

       # 1.人脸关键点检测器

       predictor_path = sys.argv[1]

       # 2.人脸识别模型

       face_rec_model_path = sys.argv[2]

       # 3.候选人脸文件夹

       faces_folder_path = sys.argv[3]

       # 4.需识别的人脸

       img_path = sys.argv[4]

       # 1.加载正脸检测器

       detector = dlib.get_frontal_face_detector()

       # 2.加载人脸关键点检测器

       sp = dlib.shape_predictor(predictor_path)

       # 3. 加载人脸识别模型

       facerec = dlib.face_recognition_model_v1(face_rec_model_path)

       # win = dlib.image_window()

       # 候选人脸描述子list

       descriptors = []

       # 对文件夹下的每一个人脸进行:

       # 1.人脸检测

       # 2.关键点检测

       # 3.描述子提取

       for f in glob.glob(os.path.join(faces_folder_path, "*.jpg")):

       print("Processing file: { }".format(f))

       img = io.imread(f)

       #win.clear_overlay()

       #win.set_image(img)

       # 1.人脸检测

       dets = detector(img, 1)

       print("Number of faces detected: { }".format(len(dets)))

       for k, d in enumerate(dets):

       # 2.关键点检测

       shape = sp(img, d)

       # 画出人脸区域和和关键点

       # win.clear_overlay()

       # win.add_overlay(d)

       # win.add_overlay(shape)

       # 3.描述子提取,D向量

       face_descriptor = facerec.compute_face_descriptor(img, shape)

       # 转换为numpy array

       v = numpy.array(face_descriptor)

       descriptors.append(v)

       # 对需识别人脸进行同样处理

       # 提取描述子,不再注释

       img = io.imread(img_path)

       dets = detector(img, 1)

       dist = []

       for k, d in enumerate(dets):

       shape = sp(img, d)

       face_descriptor = facerec.compute_face_descriptor(img, shape)

       d_test = numpy.array(face_descriptor)

       # 计算欧式距离

       for i in descriptors:

       dist_ = numpy.linalg.norm(i-d_test)

       dist.append(dist_)

       # 候选人名单

       candidate = ['Unknown1','Unknown2','Shishi','Unknown4','Bingbing','Feifei']

       # 候选人和距离组成一个dict

       c_d = dict(zip(candidate,dist))

       cd_sorted = sorted(c_d.iteritems(), key=lambda d:d[1])

       print "\n The person is: ",cd_sorted[0][0]

       dlib.hit_enter_to_continue()

       4.运行结果

       我们在.py所在的文件夹下打开命令行,运行如下命令

       python girl-face-rec.py 1.dat 2.dat ./candidate-faecs test1.jpg

       由于shape_predictor__face_landmarks.dat和dlib_face_recognition_resnet_model_v1.dat名字实在太长,所以我把它们重命名为1.dat和2.dat。

       运行结果如下:

       The person is Bingbing。

       记忆力不好的同学可以翻上去看看test1.jpg是谁的。有兴趣的话可以把四张测试都运行下试试。

       这里需要说明的是,前三张图输出结果都是非常理想的。但是第四张测试的输出结果是候选人4。对比一下两张可以很容易发现混淆的原因。

       机器毕竟不是人,机器的智能还需要人来提升。

       有兴趣的同学可以继续深入研究如何提升识别的准确率。比如每个人的候选用多张,然后对比和每个人距离的平均值之类的。全凭自己了。

减法聚类如何用Python实现

       下面是一个k-means聚类算法在python2.7.5上面的具体实现,你需要先安装Numpy和Matplotlib:

       from numpy import

*

       import time

       import matplotlib.pyplot as plt

       # calculate Euclidean distance

       def euclDistance(vector1, vector2):

       return sqrt(sum(power(vector2 - vector1, 2)))

       # init centroids with random samples

       def initCentroids(dataSet, k):

       numSamples, dim = dataSet.shape

       centroids = zeros((k, dim))

       for i in range(k):

       index = int(random.uniform(0, numSamples))

       centroids[i, :] = dataSet[index, :]

       return centroids

       # k-means cluster

       def kmeans(dataSet, k):

       numSamples = dataSet.shape[0]

       # first column stores which cluster this sample belongs to,

       # second column stores the error between this sample and its centroid

       clusterAssment = mat(zeros((numSamples, 2)))

       clusterChanged = True

       ## step 1: init centroids

       centroids = initCentroids(dataSet, k)

       while clusterChanged:

       clusterChanged = False

       ## for each sample

       for i in xrange(numSamples):

       minDist = .0

       minIndex = 0

       ## for each centroid

       ## step 2: find the centroid who is closest

       for j in range(k):

       distance = euclDistance(centroids[j, :], dataSet[i, :])

       if distance < minDist:

       minDist = distance

       minIndex = j

       ## step 3: update its cluster

       if clusterAssment[i, 0] != minIndex:

       clusterChanged = True

       clusterAssment[i, :] = minIndex, minDist**2

       ## step 4: update centroids

       for j in range(k):

       pointsInCluster = dataSet[nonzero(clusterAssment[:, 0].A == j)[0]]

       centroids[j, :] = mean(pointsInCluster, axis = 0)

       print 'Congratulations, cluster complete!'

       return centroids, clusterAssment

       # show your cluster only available with 2-D data

       def showCluster(dataSet, k, centroids, clusterAssment):

       numSamples, dim = dataSet.shape

       if dim != 2:

       print "Sorry! I can not draw because the dimension of your data is not 2!"

       return 1

       mark = ['or', 'ob', 'og', 'ok', '^r', '+r', 'sr', 'dr', '<r', 'pr']

       if k > len(mark):

       print "Sorry! Your k is too large! please contact Zouxy"

       return 1

       # draw all samples

       for i in xrange(numSamples):

       markIndex = int(clusterAssment[i, 0])

       plt.plot(dataSet[i, 0], dataSet[i, 1], mark[markIndex])

       mark = ['Dr', 'Db', 'Dg', 'Dk', '^b', '+b', 'sb', 'db', '<b', 'pb']

       # draw the centroids

       for i in range(k):

       plt.plot(centroids[i, 0], centroids[i, 1], mark[i], markersize = )

       plt.show()

DETR解读

       DETR(Detection Transformer)是一种新型的目标检测模型,它基于Transformer架构,由Facebook AI Research(FAIR)提出。DETR与传统目标检测方法不同,不使用锚框或候选区域,而是直接将整个图像输入到Transformer中,同时输出目标的类别和边界框。

       DETR的主要构成部分包括backbone、transfomer以及head模块。本文将结合源码对DETR进行解析。

       Backbone部分包含PE(position embedding)和cnn(resnet)主干网络。

       PE采用二维位置编码,x和y方向各自计算了一个位置编码,每个维度的位置编码长度为num_pos_feats(该数值实际上为hidden_dim的一半),奇数位置正弦,偶数位置余弦,最后cat到一起(NHWD),permute成(NDHW)。输入的mask是2**,那么最后输出的pos encoding的shape是2***。

       CNN_backbone采用resnet,以输入3**为例,输出**,下采样5次合计倍。

       Transfomer主要由encoder和decoder两大模块构成。

       TransformerEncoder中,qkv都来自src,其中q和k加了位置编码,v没有加,猜测原因可能是qk之间会计算attention,所以位置是比较重要的,value则是和attention相乘,不需要额外的位置编码。

       TransformerDecoder中,几个重点的变量包括object query的自注意力和cross attention。

       Head部分,分类分支是Linear层,回归分支是多层感知机。

       Matcher采用的是HungarianMatcher匹配,这里计算的cost不参与反向传播。

       Criterion根据匈牙利算法返回的indices tuple,包含了src和target的index,计算损失:分类loss+box loss。

       分类损失采用交叉熵损失函数,回归损失采用L1 loss + Giou loss。

       推理部分,先看detr forward函数,后处理,预测只需要卡个阈值即可。

       论文链接:arxiv.org/pdf/....

       代码链接:github.com/facebookrese...

       参考链接:zhuanlan.zhihu.com/p/... zhuanlan.zhihu.com/p/...

       如需删除侵权内容,请联系我。