Sujet : Google Hacks
Bonsoir les asiliens,
Je voulais vous parler de Google Hacking. Je pense qu'en tant qu'utilisateurs réguliers du web, vous devez savoir ce que Google est capable de faire... à votre insu.
Beaucoup de serveurs web mal configuré ou d'applications mal programmées peuvent potentiellement et involontairement être victimes d'un "google hack".
Qu'est-ce qu'un Google hack ? c'est le fait de laisser les robots Google référencer des infos sensibles... Infos qui pourront être utilisées à votre insu pour : accéder à des fichiers ou des pages d'administration que vous pensiez cachés sur votre site web, récupérer des informations personnelles, determiner la topologie du site web et les applications utilisées par votre serveur,...
Le plus simple c'est que je vous montre quelques exemples... :
Imaginons que je veuille passser ma soirée à hacker des bases de données MySQL, je peux commencer par fouiller dans les résultats de ce type de requète (à copier/coller dans Google avec les guillemets):
"Welcome to phpMyAdmin" AND " Create new database"
Vous voulez consulter des mails sur serveur Linux ? la requète suivante est pour vous:
intitle:index.of /maildir/new/
Vous voulez récupérer des paswords de serveur Ventrilo ou des rcon ou encore des mot de passe de channels irc?
** Serveur Ventrilo :
inurl:ventrilo_srv.ini
** Pour le rcon, c'est pareil :
Une petite requète inurl:server.cfg rcon password et on tombe sur ce genre de fichier...
** Récupération des infos de serveurs irc
inurl:perform filetype:ini
Les enjeanrises disposent de points d'entrée de type VPN SSL. Pour trouver celles qui utilisent une plateforme VPN CISCO, un pirate peut requéter Google:
"intitle:Cisco Systems, Inc. VPN 3000 Concentrator"
Vous voulez piloter une camera vidéo ?
C'était un aperçu de la puissance omnisciente de Google... Sujet vaste, interessant voire flippant. L'incompétence de certains webmaster/administrateurs systèmes permet à Google de tout savoir et par conséquence, le monde entier le sait.
Il y a un site qui explique tout ça et surtout la manière de s'en protéger au mieux en utilisant, entre autres, le fichier robots.txt.