Чтобы извлечь все аннотации объектов из ответа API в области искусственного интеллекта – API Google Vision – Расширенное понимание изображений – Обнаружение объектов, вы можете использовать формат ответа, предоставляемый API, который включает список обнаруженных объектов вместе с соответствующими им. ограничивающие рамки и оценки достоверности. Анализируя этот ответ, вы можете извлечь нужные аннотации объекта.
Ответ API обычно состоит из объекта JSON, содержащего различные поля, включая поле «localizedObjectAnnotations», которое содержит обнаруженные объекты. Каждая аннотация объекта включает такую информацию, как имя объекта, координаты его ограничивающего прямоугольника и показатель достоверности, указывающий уверенность API в обнаружении.
Чтобы извлечь аннотации объекта, вы можете выполнить следующие шаги:
1. Анализ ответа API. Начните с анализа ответа JSON, полученного от API. Это можно сделать с помощью библиотеки синтаксического анализа JSON или встроенных функций вашего языка программирования.
2. Доступ к полю «localizedObjectAnnotations». После анализа ответа перейдите к полю «localizedObjectAnnotations», которое содержит обнаруженные объекты. Это поле обычно представляет собой массив аннотаций объекта.
3. Перебрать аннотации объекта. Перебрать каждую аннотацию объекта в массиве. Каждая аннотация представляет обнаруженный объект на изображении.
4. Извлеките соответствующую информацию. Извлеките соответствующую информацию из каждой аннотации объекта, например имя объекта, координаты ограничительной рамки и оценку достоверности. Доступ к этим сведениям можно получить в виде отдельных полей в каждой аннотации объекта.
5. Храните или обрабатывайте извлеченную информацию. В зависимости от ваших требований вы можете сохранить извлеченную информацию в структуре данных или обработать ее для дальнейшего анализа или других целей. Например, вы можете захотеть сохранить имена объектов и соответствующие им координаты ограничительной рамки в базе данных или использовать их для дальнейших задач по распознаванию изображений.
Вот упрощенный пример, иллюстрирующий процесс извлечения:
python import json # Assume 'response' contains the API response in JSON format response =
{
"localizedObjectAnnotations": [
{
"средний": "/m/01g317",
"имя": "кот",
«оценка»: 0.89271355,
"boundingPoly": {
"нормализованные вершины": [
{"х": 0.1234, "у": 0.5678},
{"х": 0.5678, "у": 0.1234}
] }
},
{
"mid": "/m/04rky",
"имя": "собака",
«оценка»: 0.8132468,
"boundingPoly": {
"нормализованные вершины": [
{"х": 0.4321, "у": 0.8765},
{"х": 0.8765, "у": 0.4321}
] }
}
]}
# Parse the API response response_data = json.loads(response) # Access the object annotations annotations = response_data['localizedObjectAnnotations'] # Iterate through the object annotations for annotation in annotations: # Extract relevant information object_name = annotation['name'] bounding_box = annotation['boundingPoly']['normalizedVertices'] confidence = annotation['score'] # Process or store the extracted information print(f"Object: {object_name}, Bounding Box: {bounding_box}, Confidence: {confidence}") # Output: # Object: cat, Bounding Box: [{'x': 0.1234, 'y': 0.5678}, {'x': 0.5678, 'y': 0.1234}], Confidence: 0.89271355 # Object: dog, Bounding Box: [{'x': 0.4321, 'y': 0.8765}, {'x': 0.8765, 'y': 0.4321}], Confidence: 0.8132468
В этом примере мы предполагаем, что ответ JSON содержит два обнаруженных объекта: кошку и собаку. Код анализирует ответ, обращается к полю «localizedObjectAnnotations», перебирает каждую аннотацию объекта и извлекает имя объекта, координаты ограничивающего прямоугольника и оценку достоверности. Наконец, извлеченная информация распечатывается, но вы можете изменить код в соответствии с вашими конкретными потребностями.
Выполнив эти шаги, вы сможете эффективно извлечь все аннотации объектов из ответа API в области искусственного интеллекта – API Google Vision – Расширенное понимание изображений – Обнаружение объектов.
Другие недавние вопросы и ответы, касающиеся Расширенное понимание изображений:
- Какие предопределенные категории для распознавания объектов в Google Vision API?
- Каков рекомендуемый подход к использованию функции обнаружения безопасного поиска в сочетании с другими методами модерации?
- Как мы можем получить доступ и отобразить значения вероятности для каждой категории в аннотации безопасного поиска?
- Как мы можем получить аннотацию безопасного поиска с помощью API Google Vision в Python?
- Какие пять категорий включены в функцию обнаружения безопасного поиска?
- Как функция безопасного поиска Google Vision API обнаруживает откровенное содержание в изображениях?
- Как мы можем визуально идентифицировать и выделить обнаруженные объекты на изображении с помощью библиотеки подушек?
- Как мы можем организовать извлеченную информацию об объекте в табличном формате, используя фрейм данных pandas?
- Какие библиотеки и язык программирования используются для демонстрации функциональности Google Vision API?
- Как Google Vision API выполняет обнаружение и локализацию объектов на изображениях?
Дополнительные вопросы и ответы см. в разделе «Расширенное понимание изображений».