1、加载模块、图片,并把图片变成灰度图片。import cv2import numpy as npMIN_MATCH_COUNT = 4i罪焐芡拂mg1 = cv2.imread("D:/……/a.jpg")img2 = cv2.imread("D:/……/b.jpg")g1 = cv2.cvtColor(img1, cv2.COLOR_BGR2GRAY)g2 = cv2.cvtColor(img2, cv2.COLOR_BGR2GRAY)

2、灰度图。


3、创建SIFT对象:sift = cv2.xfeatures2d.SIFT_create(拘七呷憎)创建Flann匹配:match = cv2.FlannBasedMatcher(dict(锾攒揉敫algorithm =2, trees =1), {})检测特征点,并描述特征点:kp1, de1 = sift.detectAndCompute(g1,None)kp2, de2 = sift.detectAndCompute(g2,None)

4、用knn匹配,来提取de1和de2的靠前的数据m = match.knnMatch(de1, de2, 2)

5、重新排序:m = sorted(m,key = lambda x:x[0].distance)

6、提取效果较好的几个可匹配特征点:ok = [m1 for (m1, m2) in m if m1.distance < 0.7 * m2.distance]

7、根据匹配的特征点,对第1幅图片进行透视变换,使之与第一幅图的已经匹配的特征点尽量重合:if len(ok)>MIN_MATCH_COUNT: pts0 = np.float32([ kp1[i.queryIdx].pt for i in ok]).reshape(-1,1,2) pts1 = np.float32([ kp2[i.trainIdx].pt for i in ok]).reshape(-1,1,2) M, mask = cv2.findHomography(pts0,pts1, cv2.RANSAC,5.0) h,w = img1.shape[:2] pts = np.float32([ [0,0],[0,h-1],[w-1,h-1],[w-1,0] ]).reshape(-1,1,2) dst = cv2.perspectiveTransform(pts,M) cv2.polylines(img2,[np.int32(dst)],True,(0,255,0),3, cv2.LINE_AA)else: print( "匹配点的数目不够! - {}/{}".format(len(ok),MIN_MATCH_COUNT))

8、用线把匹配的特征点连接起来:med = cv2.drawMatches(img1,kp1,img2,kp2,ok,None)可以看出来,有些匹配的特征点,并不匹配。这说明,如果发生位移,那么,匹配结果会有所出入。

9、整体代码如下图所示。
