为什么车牌识别不正确呢?
原图:
read_image (Image1, 'C:/Users/29185/Desktop/图片1.png')get_image_size (Image1, Width, Height)dev_close_window ()dev_open_window (0, 0, Width, Height, 'black', WindowHandle)rgb1_to_gray (Image1, GrayImage)dev_display (GrayImage)gen_rectangle1 (Rectangle, 59, 49, 89, 159)reduce_domain (GrayImage, Rectangle, ImageReduced)threshold (ImageReduced, Regions, 98, 194)shape_trans (Regions, RegionTrans1, 'rectangle1')reduce_domain (GrayImage, RegionTrans1, ImageReduced1)orientation_region (RegionTrans1, Phi) //区域方向计算,得到弧度Phiarea_center (RegionTrans1, Area, Row, Column)//获得区域坐标,面积vector_angle_to_rigid (Row, Column, rad(180)-Phi, Row, Column,0 , HomMat2D)//生成旋转矩形,Phi>0 , [rad(180)-Phi]防止旋转后图像反转affine_trans_image (Image1, ImageAffineTrans, HomMat2D, 'constant', 'false')//旋转操作reduce_domain (ImageAffineTrans, RegionTrans1, ImageReduced)//截取车牌区域操作threshold (ImageReduced, Regions1, 100, 215)connection (Regions1, ConnectedRegions)select_shape (ConnectedRegions, SelectedRegions1, 'area', 'and', 89.39, 169.58)read_ocr_class_mlp ('Industrial_0-9A-Z_NoRej.omc', OCRHandle4) do_ocr_multi_class_mlp (SelectedRegions1, ImageReduced, OCRHandle4, Class, Confidence) disp_message (WindowHandle, Class, 'window', 0, 0, 'black', 'true')
我希望输出AT0H69
从您提供的图片和代码来看,车牌识别不正确可能有几个原因。请注意,车牌识别是一个复杂的任务,需要考虑到多种因素,如光照条件、车牌的清晰度、车牌的倾斜和变形等。下面是一些可能的原因和相应的解释:
gen_rectangle1
来定义车牌的初始位置,这可能不是最准确的方法。更好的方法可能是使用边缘检测、轮廓查找或深度学习方法来自动定位车牌。threshold
和connection
来分割字符,但可能并没有得到准确的字符区域。字符分割是车牌识别中的一个关键步骤,需要确保每个字符都被准确地分割出来。do_ocr_multi_class_mlp
来进行字符识别,但可能模型并不适合您的特定应用或数据集。OCR模型的性能会受到训练数据、模型结构和参数等多种因素的影响。为了改进车牌识别的准确性,您可以考虑以下措施:
请注意,以上只是一些可能的原因和改进措施,具体的解决方案可能需要根据您的具体情况进行调整和优化。车牌识别是一个具有挑战性的任务,需要综合考虑多个因素来实现高准确性。
1.1. cirtus_lpr_sdk 1.1.1. SDK接口说明 1.2. android_demo Rokid Plate Recognition SDK and demo project. Author Email cmxnono cmxnono@rokid.com 1.1. cirtus_lpr_sdk Version:1.0 1.1.1. SDK接口说明 初始化 public long
甚至这张照片上的镶嵌也无法识别任何字符。我的代码是: 我的问题是,你知道如何取得更好的结果吗?更清晰的图像?尽管我的车牌质量较差,因此结果可以读取OCR(例如泰瑟拉克特)。 谢谢你的回答。真的,我不知道怎么做。
我是一名程序员,但我之前没有使用Python或其任何库的经验,甚至没有OCR/ALPR的整体经验。我有一个脚本,我做的(基本上复制和粘贴其他脚本在整个网络上),我假装用来识别车牌。但事实是我的代码现在非常糟糕。它可以很好地识别图像中的文本,但它很难捕捉车牌。我很少能用它拿到牌照。 因此,我需要一些帮助,说明我应该如何更改代码以使其更好。 在我的代码中,我只需选择一个图像,将其转换为二进制和BW,然
问题是,当我在另一个系统(Ubuntu12.04,32位)中设置相同的工作代码时,在配置OpenCV和Tesseract后,它在制作项目时产生了以下错误 错误是
我试图开发一个简单的车牌识别PC应用程序(Java+OpenCV+Tess4j)。图像不是真的好(在进一步,他们将是好的)。我想为tesseract预处理图像,我被困在车牌检测(矩形检测)上。 我的脚步: 1)源图像 我用油漆从图像(第四步后)中裁剪出所需的区域,并得到: 然后我做了OCR(通过tesseract,tess4j): 而且得到了(足够好?)结果-“Y841OX EH”(几乎正确)
TensorFlow包含图像识别的特殊功能,这些图像存储在特定文件夹中。出于安全目的,经常要识别相同的图像,这个逻辑很容易实现。 图像识别代码实现的文件夹结构如下所示 - dataset_image 文件夹中包含需要加载的相关图像。这里将专注于图像识别,其中定义了徽标。加载“load_data.py”脚本,它记录各种图像识别模块。 图像的训练用于将可识别的图案存储在指定的文件夹中。 上面的代码行生