У меня есть набор изображений чашек Петри, которые, к сожалению, не самого высокого качества (пример ниже, оси не являются частью изображений).
Я пытаюсь выбрать фон и рассчитать его площадь в пикселях следующим образом:
image = Image.open(path)
black_image = 1 * (np.asarray(image.convert('L')) < 12)
black_region = black_image.sum()
Это дает следующее:
Если я буду более строгим с выбором черных пикселей, я пропущу пиксели на других изображениях, а если я буду менее жестким, я в конечном итоге выберу слишком много самой чашки Петри. Есть ли способ, которым я могу выбрать только пиксели, имеющие значение яркости менее 12 И примыкающие к краю? Я тоже открыт для решений openCV.
@MarkSetchell да, большинство из них очень похожи на это изображение.
Что вы считаете "фоном"? Что-нибудь за пределами круга блюда? | "не самого высокого качества" -- помните принцип GIGO. Почему они некачественные? Что можно сделать, чтобы приобрести лучшие? Никакая магия не вернет вам информацию, которую вы потеряли из-за плохого получения изображения.
Из других ваших вопросов видно, что оси не являются частью исходного изображения.
@joeforker Оси не являются частью изображения. это просто от звонка plt.imshow()
отредактирую выше и уточню
Попробуйте экспериментальный floodfill()
метод. https://pillow.readthedocs.io/en/5.1.x/reference/ImageDraw.html?highlight=floodfill#PIL.ImageDraw.PIL.ImageDraw.floodfill
Если все ваши изображения похожи на пример, просто выберите два или четыре угла вашего изображения, чтобы заполнить, скажем, ярко-розовым цветом, и посчитайте это.
См. также Сегментация изображения с алгоритмом водораздела, который очень похож на заливку заливкой, но без использования одного уникального цвета.
Я пытался использовать заливку, но не уверен, правильно ли я ее использую. Я продолжаю получать изображение, полностью заполненное цветом заливки, который я указываю с помощью ImageDraw.floodfill(image, (100,100), (32, 200, 32), 0 )
. Что я делаю неправильно?
Попробуйте порог 50 и альфа-канал 255 на цвете
Since you are open to OpenCV approaches you could use a
SimpleBlobDetector
Очевидно, что результат, который я получил, также не идеален, так как нужно установить много гиперпараметров. Гиперпараметры делают его довольно гибким, так что это хорошее место для начала.
Вот что делает Детектор (см. подробности здесь):
thresholdStep
до maxThreshold
. Итак, первый порог — minThreshold
, второй — minThreshold + thresholdStep
, третий — minThreshold + 2 x thresholdStep
и так далее.Объединение: Вычисляются центры бинарных BLOB-объектов в бинарных изображениях, а BLOB-объекты, расположенные ближе, чем minDistBetweenBlobs
, объединяются.
Расчет центра и радиуса: центры и радиусы новых объединенных больших двоичных объектов вычисляются и возвращаются.
Найдите код под изображением.
# Standard imports
import cv2
import numpy as np
# Read image
im = cv2.imread("petri.png", cv2.IMREAD_COLOR)
# Setup SimpleBlobDetector parameters.
params = cv2.SimpleBlobDetector_Params()
# Change thresholds
params.minThreshold = 0
params.maxThreshold = 255
# Set edge gradient
params.thresholdStep = 5
# Filter by Area.
params.filterByArea = True
params.minArea = 10
# Set up the detector with default parameters.
detector = cv2.SimpleBlobDetector_create(params)
# Detect blobs.
keypoints = detector.detect(im)
# Draw detected blobs as red circles.
# cv2.DRAW_MATCHES_FLAGS_DRAW_RICH_KEYPOINTS ensures the size of the circle corresponds to the size of blob
im_with_keypoints = cv2.drawKeypoints(im, keypoints, np.array([]), (0, 0, 255),
cv2.DRAW_MATCHES_FLAGS_DRAW_RICH_KEYPOINTS)
# Show keypoints
cv2.imshow("Keypoints", im_with_keypoints)
cv2.waitKey(0)
Если вы возьмете самую верхнюю строку/строку вашего изображения и самую нижнюю строку/строку и поставите их порогом, вы получите эту диаграмму, где я поместил верхнюю строку вверху, а нижний ряд внизу сразу за пределами границ исходное изображение - вам не нужно этого делать, я просто иллюстрирую технику.
Теперь посмотрите, где линии меняются с черного на белый, а затем с белого на черный (вверху обведено красным). К сожалению, ваши изображения имеют аннотации и оси, которые мне пришлось обрезать, чтобы ваш номер не был таким же. В верхней строке / строке мое изображение меняется с черного на белое в столбце 319 и обратно на черное в столбце 648. Если я суммирую их вместе, я получаю 966 и делю на 2, центр изображения на оси X находится в столбце 483. .
Глядя на нижнюю строку / строку, переходы (обведены красным) находятся в столбцах 234 и 736, что в сумме дает 970, что дает 485 при усреднении, поэтому мы знаем, что центр круга находится в вертикальном столбце изображения 483-485 или, скажем, 484.
Теперь вы сможете определить центр и радиус изображения и замаскировать изображение, чтобы точно рассчитать фон.
Надеюсь, я не упрощаю проблему, но, с моей точки зрения, использование OpenCV с простым определением порога, морфологическими операциями и findContours
должно работать.
Пожалуйста, смотрите следующий код:
import cv2
import numpy as np
# Input
input = cv2.imread('images/x0ziO.png', cv2.IMREAD_COLOR)
# Input to grayscale
gray = cv2.cvtColor(input, cv2.COLOR_BGR2GRAY)
# Binary threshold
_, gray = cv2.threshold(gray, 20, 255, cv2.THRESH_BINARY)
# Morphological improvements of the mask
gray = cv2.morphologyEx(gray, cv2.MORPH_OPEN, cv2.getStructuringElement(cv2.MORPH_ELLIPSE, (5, 5)))
gray = cv2.morphologyEx(gray, cv2.MORPH_CLOSE, cv2.getStructuringElement(cv2.MORPH_ELLIPSE, (11, 11)))
# Find contours
cnts, _ = cv2.findContours(gray, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_NONE)
# Filter large size contours; at the end, there should only be one left
largeCnts = []
for cnt in cnts:
if (cv2.contourArea(cnt) > 10000):
largeCnts.append(cnt)
# Draw (filled) contour(s)
gray = np.uint8(np.zeros(gray.shape))
gray = cv2.drawContours(gray, largeCnts, -1, 255, cv2.FILLED)
# Calculate background pixel area
bgArea = input.shape[0] * input.shape[1] - cv2.countNonZero(gray)
# Put result on input image
input = cv2.putText(input, 'Background area: ' + str(bgArea), (20, 30), cv2.FONT_HERSHEY_COMPLEX_SMALL, 1.0, (255, 255, 255))
cv2.imwrite('images/output.png', input)
Промежуточное изображение «маски» выглядит так:
И, окончательный вывод выглядит так:
Все ли изображения обрезаны одинаково, т. е. отсутствуют верх и низ тарелки?