hellEyes est un programme permettant de changer chaque instance d’œil dans une image en un flash lumineux rouge provenant directement du tréfonds des enfers©, capable de vous faire passer pour un véritable démon, ou encore un agent des impôts.
L'image en question peut être donnée, prise, ou du temps réel sur n'importe quelle caméra supportant la librairie OpenCV.
Ce programme n'a pas de but autre que de divertir.
Exemple d'exécution de ce programme:
Le programme se trouve en intégralité ici.
Le tout à placer dans le même dossier que celui du programme.
Remarque: les deux classifiers donnés sont ceux utilisés par le programme. Vous pouvez les remplacer par n'importe quels autres classifiers remplissant les mêmes fonctions mais si vous le faites, n'oubliez pas de changer les noms des fichiers chargés ici:
# Load XML Classifiers face_cascade = cv2.CascadeClassifier('haarcascade_frontalface_default.xml') eye_cascade = cv2.CascadeClassifier('haarcascade_eye.xml')
lignes 117 à 119
Ce programme utilise les librairies suivantes:
# Libraries import cv2 import sys
lignes 1 à 3
cv2
référence la librairie OpenCV (version 3.4.1) permettant de nombreuses opérations sur les images en Python et C++sys
référence la librairie sys pour la gestion des paramètres en Python.
Il s'agit d'un pan entier de code contrôlant l'arbre d'argument suivant:
Ce n'est pas nécessairement excitant mais ça permet au programme de détecter différentes erreurs, de s'arrêter dans de meilleures conditions et en indiquant l'erreur en question.
Si cela vous intéresse, le contrôle s'étend lignes 55 à 112.
Voilà qui est déjà un peu plus intéressant. Ce programme contient deux fonctions:
# Functions def hellEyes(img,begone): # Detect faces gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) faces = face_cascade.detectMultiScale(gray, 1.3, 5, minSize=(25,25)) for (x,y,w,h) in faces: roi_gray = gray[y:y+h, x:x+w] # Detect eyes and apply function to each eyes = eye_cascade.detectMultiScale(roi_gray, 1.3, 5, minSize=(10,10)) for (ex,ey,ew,eh) in eyes: addHellEyes(img,begone,x+ex,y+ey,ew,eh) return img
lignes 9 à 22.
On prend l'image img
, on la transforme en niveaux de gris, on applique le face classifier dessus grâce à detectMultiScale
. Chaque visage ainsi détecté rejoins la liste faces
sous la forme d'un tuple de 4 valeurs:
Pour chaque visage, on définit une sous image (ou ROI) à partir de celle en niveau de gris, de laquelle on applique le eye classifier toujours avec detectMultiScale
. Chaque œil ainsi détecté rejoins la liste eyes
sous la forme d'un autre tuple de 4 points similaire à celui des visages, excepté qu'ici l'image de départ est le ROI du visage en traitement.
Enfin pour chaque œil on applique la fonction addHellEyes
en passant l'image de départ, le flash rouge, la position (x,y) de l’œil dans le référentiel de l'image de départ ainsi que la largeur et la hauteur de l’œil qu'on traite .
def addHellEyes(img,begone,ex,ey,ew,eh): # ~0.017s # Datas add_w = 80 add_h = 120 centering_parameter_y = 0 centering_parameter_x = 10 # Preprocess new_h = eh+2*add_h new_w = ew+2*add_w resized_b = cv2.resize(begone,(new_h,new_w),interpolation = cv2.INTER_AREA) y1, y2 = ey-add_w+centering_parameter_y, ey+eh+add_w+centering_parameter_y x1, x2 = ex-add_h+centering_parameter_x, ex+ew+add_h+centering_parameter_x alpha = resized_b[:, :, 3] / 255.0 ctr_alpha = 1.0 - alpha # Treatment try: for c in range(0, 3): img[y1:y2, x1:x2, c] = (alpha * resized_b[:, :, c] + ctr_alpha * img[y1:y2, x1:x2, c]) except Exception as e: pass return img
lignes 26 à 51.
La partie #Data
contient les données paramètres de “d'explosion” du ROI et de centrage, s'ajoutant aux calculs suivant pour center le flash sur les yeux et pour que le étendre le flash lumineux après son le resize
.
La partie #Preprocess
contient le calcul de la taille du nouvel ROI, le changement de taille du flash lumineux, le calcul des nouvelles valeurs de départ et de fin dans l'image de départ et le calcul de la valeur de transparence.
La partie #Treatment
pose dans un try … catch
(voir Problèmes et améliorations) le flash lumineux sur l'image de départ pixel par pixel avant de la renvoyer.
Et voilà, vous êtes un contrôleur des impôts démon ! Il ne reste plus qu'à l'afficher.
Il s'agit là aussi d'un bout de code pas très passionnant. Il s'étend lignes 115 jusqu'à la fin et se résume à:
Q
.Même si la scène ou l'image comporte un visage, le programme peut:
En ce qui concerne les problèmes de détection (1 & 2), il suffirait de posséder des classifiers mieux entraînés, ou bien de faire le traitement (detectMultiScale
) avec plusieurs classifiers et compiler les résultats dans une liste sans doublon.
Faire tourner plusieurs classifiers par image porterait un sacré coup sur le temps réel, mais est envisageable pour l'image fixe.
Concernant l'absence d'affichage malgré détection (3), il s'agit d'un compromis.
Vous vous souvenez du traitement coincé dans un try … catch
? C'est de ça qu'il s'agit. Cela provient de “l'explosion” du ROI qui se fait sans contrôle de valeur aucun.
Une solution serait d'avoir un traitement plus rigoureux concernant les valeurs maximales de l'image de départ, définir une limite à ne pas franchir et ne superposer qu'une portion du flash lumineux d'une limite vers la fin, du début jusqu'à une limite, ou même d'une limite jusqu'à une limite.
Cette fois-ci, on peut considérer que cela n’entacherait pas le temps réel car il s'agit d'opérations de tests, peu coûteuses. Seulement, par soucis de temps, cette solution n'a pas été réalisée.
Enfin, vis à vis des améliorations possibles, j'ai surtout en tête des améliorations de performance pour le temps réel sur une machine moins puissante (RaspBerry par exemple). Une amélioration évidente serait de paralléliser le programme, puisque la fonction s'applique indépendamment à chaque œil de chaque visage.
Merci pour votre attention.
Philibert Thomas