Введение в распознавание жестов рук
Распознавание жестов руками — увлекательная область, которая объединяет людей и машины, обеспечивая интуитивное и естественное взаимодействие. Представьте себе управление роботом или виртуальной средой простым движением руки — это звучит как что-то из научно-фантастического фильма, но вполне возможно с правильными инструментами и небольшим количеством магии кодирования. В этой статье мы подробно рассмотрим создание системы распознавания жестов рук с использованием MediaPipe и TensorFlow, двух мощных фреймворков, которые делают эту задачу не только выполнимой, но и увлекательной.
Почему именно MediaPipe и TensorFlow?
MediaPipe и TensorFlow — мощный дуэт для распознавания жестов руками. MediaPipe, разработанный Google, предоставляет надёжную структуру для обнаружения ключевых точек на руках и распознавания жестов в режиме реального времени. TensorFlow, с другой стороны, является универсальным инструментом машинного обучения, который позволяет нам обучать и развертывать собственные модели распознавания жестов.
MediaPipe: детектив по ключевым точкам рук
Решение MediaPipe для рук разработано для определения 21 ключевой точки на руке, которые затем используются для распознавания конкретных жестов. Вот краткий обзор того, как работает MediaPipe:
- Обработка ввода: MediaPipe принимает данные изображений, которые могут быть получены из одного изображения, видео или прямой трансляции. Он обрабатывает эти данные, поворачивая, изменяя размер, нормализуя и преобразовывая цветовое пространство при необходимости.
- Обнаружение рук: MediaPipe использует модель машинного обучения для обнаружения рук на изображении и идентификации 21 ключевых точек на каждой руке. Эти ключевые точки включают запястье, пальцы и другие важные точки.
- Распознавание жеста: после обнаружения ключевых точек MediaPipe может классифицировать их в определённые жесты. Фреймворк поставляется с предварительно обученными моделями для распространённых жестов, таких как сжатый кулак, открытая ладонь и т. д. Вы также можете расширить это, чтобы распознать пользовательские жесты.
TensorFlow — вот где происходит настоящее волшебство. Мы используем TensorFlow для обучения наших собственных моделей распознавания жестов на основе ключевых точек, обнаруженных MediaPipe. Вот как мы интегрируем TensorFlow:
- Сбор данных: мы собираем данные, захватывая жесты рук и соответствующие им ключевые точки с помощью MediaPipe. Затем эти данные сохраняются в формате, который можно использовать для обучения модели машинного обучения.
- Обучение модели: мы обучаем нейронную сеть, используя собранные данные. Это включает предварительную обработку данных, определение архитектуры модели и обучение модели с использованием функций обучения TensorFlow.
- Развёртывание модели: после обучения модель развёртывается для распознавания жестов рук в реальном времени. Это можно сделать на различных платформах, включая Raspberry Pi, что делает его подходящим для периферийных устройств.
Пошаговое руководство по созданию системы
Прежде чем приступить к коду, убедитесь, что у вас установлены необходимые пакеты:
pip install opencv-python mediapipe tensorflow numpy
Импортируйте необходимые пакеты в вашем скрипте Python:
import cv2
import numpy as np
import mediapipe as mp
import tensorflow as tf
from tensorflow.keras.models import load_model
Инициализируйте модели MediaPipe и утилиты рисования:
mpHands = mp.solutions.hands
hands = mpHands.Hands(max_num_hands=1, min_detection_confidence=0.7)
mpDraw = mp.solutions.drawing_utils
Читайте кадры с вашей веб-камеры и обнаруживайте ключевые точки рук:
cap = cv2.VideoCapture(0)
while cap.isOpened():
success, image = cap.read()
if not success:
break
image = cv2.cvtColor(image, cv2.COLOR_BGR2RGB)
results = hands.process(image)
image = cv2.cvtColor(image, cv2.COLOR_RGB2BGR)
if results.multi_hand_landmarks:
for hand_landmarks in results.multi_hand_landmarks:
mpDraw.draw_landmarks(image, hand_landmarks, mpHands.HAND_CONNECTIONS)
cv2.imshow('Hand Gesture Recognition', image)
if cv2.waitKey(5) & 0xFF == 27:
break
cap.release()
cv2.destroyAllWindows()
Чтобы распознать жесты, вам нужно обучить пользовательскую модель или использовать предварительно обученную. Вот пример загрузки предварительно обученной модели и её использования для распознавания жестов:
# Load the gesture recognizer model
model = load_model('path_to_your_model.h5')
# Function to recognize gestures based on landmarks
def recognize_gesture(landmarks):
# Normalize and flatten landmarks
normalized_landmarks = np.array([(lm.x, lm.y, lm.z) for lm in landmarks.landmark])
normalized_landmarks = normalized_landmarks.flatten()
# Predict the gesture
prediction = model.predict(np.array([normalized_landmarks]))
return np.argmax(prediction)
# Loop through each detection and recognize the gesture
if results.multi_hand_landmarks:
for hand_landmarks in results.multi_hand_landmarks:
gesture = recognize_gesture(hand_landmarks)
# Display the recognized gesture
cv2.putText(image, f'Gesture: {gesture}', (10, 20), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (0, 0, 255), 2)
Если вы хотите обучить собственную модель распознавания жестов, вот общий обзор шагов:
- Сбор данных. Используйте MediaPipe для сбора данных о ключевых точках для различных жестов и сохраните их в CSV-файл вместе с соответствующими метками жестов.
- Обучение модели. Обучите модель нейронной сети, используя собранные данные.
Вот упрощённая диаграмма рабочего процесса с использованием синтаксиса Mermaid для иллюстрации шагов, связанных со сборкой и развёртыванием системы распознавания жестов рук:
Итак, вперёд и попробуйте создать свою систему распознавания жестов или распознавания рук — будущее взаимодействия человека и компьютера в ваших руках, буквально.