大佬教程收集整理的这篇文章主要介绍了考虑透视或角度,通过参考图像测量对象,大佬教程大佬觉得挺不错的,现在分享给大家,也给大家做个参考。
我制定了一个算法来使用参考测量对象,如下所示:
node filter
参考是框架,另一个 (Aol) 是所需的对象。我的代码得到了这个结果:
但真正的 Aol 是 78.6。这是因为照片的视角/角度。所以我在我的代码中使用了 Deep Learning 并获得了参考和 Aol 掩码,我根据每个掩码的像素数进行了简单的计算以获得 Aol 面积(cm²),一旦我知道参考的实际大小.我尝试根据参考校正角度/透视,并使用参考蒙版:
我尝试根据参考蒙版计算四边形顶点以校正透视。我根据此参考创建了此代码
:# import the necessary packages from scipy.spatial import distance as dist from imutils import perspective from imutils import contours import numpy as np import imutils import cv2 import math import matplotlib.pyplot as plt # get the single external contours # load the image,convert it to grayscale,and blur it slightly image = cv2.imread("./ref/20210702_114527.png") ## Mask Image gray = cv2.cvtcolor(image,cv2.color_BGR2GRAY) gray = cv2.GaussianBlur(gray,(7,7),0) # perform edge detection,then perform a dilation + erosion to # close gaps in between object edges edged = cv2.CAnny(gray,50,100) edged = cv2.dilate(edged,None,iterations=1) edged = cv2.erode(edged,iterations=1) # find contours in the edge map cnts = cv2.findContours(edged.copy(),cv2.RETR_EXTERNAL,cv2.CHAIN_APPROX_SIMPLE) cnts = imutils.grab_contours(cnts) # sort the contours from left-to-right and initialize the # 'pixels per metric' calibration variable (cnts,_) = contours.sort_contours(cnts) pixelsPerMetric = None orig = image.copy() Box = cv2.minAreaRect(min(cnts,key=cv2.contourArea)) Box = cv2.cv.boxPoints(BoX) if imutils.is_cv2() else cv2.boxPoints(BoX) Box = np.array(Box,dtype="int") # order the points in the contour such that they appear # in top-left,top-right,bottom-right,and bottom-left # order,then draw the outline of the rotated bounding # Box Box = perspective.order_points(BoX) cv2.drawContours(orig,[Box.astype("int")],-1,(0,255,0),2) # loop over the original points and draw them for (x,y) in Box: cv2.circle(orig,(int(X),int(y)),5,255),-1) print('Box: ',BoX) cv2.imshow('Orig',orig) img = cv2.imread("./meat/sair/20210702_114527.jpg") #original image rows,cols,ch = img.shape #pts1 = np.float32([[185,9],[304,80],[290,134],[163,64]]) #ficou legal 6e.jpg ### Coletando os pontos pts1 = np.float32(BoX) ### Draw the vertices on the original image for (x,y) in pts1: cv2.circle(img,-1) ratio= 1.6 moldH=math.sqrt((pts1[2][0]-pts1[1][0])*(pts1[2][0]-pts1[1][0])+(pts1[2][1]-pts1[1][1])*(pts1[2][1]-pts1[1][1])) molDW=ratio*moldH pts2 = np.float32([[pts1[0][0],pts1[0][1]],[pts1[0][0]+molDW,pts1[0][1]+moldH],[pts1[0][0],pts1[0][1]+moldH]]) #print('cardH: ',cardH,carDW) M = cv2.getPerspectivetransform(pts1,pts2) print('M:',M) print('pts1:',pts1) print('pts2:',pts2) offsetSize= 320 transformed = np.zeros((int(molDW+offsetSizE),int(moldH+offsetSizE)),dtype=np.uint8) dst = cv2.warpPerspective(img,M,transformed.shapE) plt.subplot(121),plt.imshow(img),plt.title('input') plt.subplot(122),plt.imshow(dst),plt.title('Output') plt.show()
@H_674_34@我得到了这个:
Perspective correction in OpenCV using python
没有透视校正。我有很多信息,比如顶点,参考的正确大小。是否可以根据四边形顶点进行数学校正,例如回归?不一定直接对图像进行校正,除非有很好的方法来校正透视图像。或者可能是基于数学的不同方法?感谢您的耐心等待。
克里斯托夫:
这也是结果位置:
pts1: [[ 9. 51.] [392. 56.] [388. 336.] [ 5. 331.]]
@H_674_34@解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)
大佬总结
以上是大佬教程为你收集整理的考虑透视或角度,通过参考图像测量对象全部内容,希望文章能够帮你解决考虑透视或角度,通过参考图像测量对象所遇到的程序开发问题。
如果觉得大佬教程网站内容还不错,欢迎将大佬教程推荐给程序员好友。
本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。