
tels qu’AV-Comparatives et AV-Test.
Les tests d’antivirus réalisés par des agences reconnues (dans lesquels le résultat ne dépend pas d’un quelconque paiement) suivent généralement deux approches principales lorsque les méthodologies de tests sont créées : le seau ou les pincettes. Et effectivement, ces deux approches sont légitimes et très utiles.
AV-Comparatives et AV-Test suivent plutôt l’approche du seau. Pour cela, ils dirigent un grand volume de malware connus vers l’appareil et notent ce que retient l’application antivirus. Puis ils ouvrent un grand nombre de fichiers et d’applications sur l’appareil pour voir si ceux-ci déclenchent des faux positifs.
SE Labs suit plutôt une approche sélective, à l’image des pincettes. Au lieu d’utiliser un vaste échantillon de malware et de fichiers suspects, ils suivent l’approche du test de pénétration. Leurs outils analysent quel niveau de profondeur le malware sélectionné a pu atteindre sur l’appareil testé ainsi que la portée et l’importance des alertes de faux positifs. Plus le malware arrive à s’immiscer dans l’appareil, plus le fichier de faux positif est important, et plus l’impact est grand sur les résultats du test.
La note de protection de SE Labs évalue la capacité de l’antivirus à traiter les fichiers malveillants ainsi que les parties indirectement malveillantes d’une attaque comme les URL ou les droppers. Voici le détail de leur système de notation :
SE Labs suit une approche similaire dans son test Legitimate Accuracy (Précision légitime) en quantifiant le facteur de « gêne » des faux positifs sur l’expérience utilisateur. Son critère Non-Optimal Classification/Action (classification/action non optimale) présente une vision plus nuancée que les alertes traditionnelles de faux positifs dichotomiques. Les produits qui classent la plupart des applications correctement et qui ne dérangent pas les utilisateurs marquent plus de points que ceux qui posent des questions et signalent des applications légitimes.
La convivialité entre également en jeu. Comme le décrit SE Labs, entre bloquer la dernière version de Microsoft Word et condamner une rare barre d’outils sur les rencontres en Iran sur Internet Explorer 6, il y a une grande différence. C’est pourquoi ils ont établi la formule suivante : note sur l’interaction x note sur la fréquence. Plus l’utilisateur est harcelé d’alertes – et plus le fichier est important – plus la sanction est sévère.
Avira a reçu de très bonnes notes dans les deux aspects du test. Avira Free Security Suite n’a signalé aucun des fichiers légitimes (708/708 points) ce qui nous a valu une note de précision de 100 %. Dans le test de Protection, Avira a obtenu 309 points soit un score de protection de 77 %. Dans l’ensemble, Avira a obtenu une note de 92 %, bien au-dessus des moyennes du secteur, d’où la récompense AA.
Ces tests confirment qu’Avira Antivirus remplit pleinement ses fonctions : assurer la protection des utilisateurs. Alors qu’Avira Antivirus est soumis à de nombreux tests, nous sommes convaincus que ce sont les examinateurs indépendants, qui suivent une méthodologie testée et approuvée, qui produisent des résultats fiables. C’est une bonne nouvelle pour les développeurs en sécurité comme Avira, et pour les utilisateurs qui peuvent être sûrs que leur antivirus a été testé dans une variété de conditions réelles.