Je suppose que cela dépend de l'échelle de votre "service d'hébergement de données publiques".
Si c'est quelque chose de petit avec peut-être quelques centaines d'images par jour qui coule, vous pouvez les modérer par vous-même.
S'il s'agit de quelques centaines de milliers, vous aurez besoin d'une quantité d'êtres humains triant les mauvaises herbes. C'est soit une équipe de modérateurs, soit des utilisateurs eux-mêmes qui soumettent des rapports d'abus.
Lequel choisir, peut dépendre de votre budget/réussite financière de votre service ainsi que du type de service. Si c'est quelque chose de simple comme Rapidshare où l'on ne voit pas ce que l'autre fait, les chances que les utilisateurs verront le contenu de l'autre et à travers cet avis et, espérons-le, signaler un contenu inacceptable sont faibles. Si c'est quelque chose de très social comme Flickr, vous pouvez parier que les rapports vont circuler.
Je suppose que vous pourriez automatiser quelque chose, mais c'est presque une tâche impossible. Vous ne pouvez pas détecter automatiquement le porno. Vous ne pouvez pas détecter automatiquement les images violant les droits d'auteur - faire des empreintes de matériel de droits d'auteur afin de les comparer avec les choses téléchargées est un véritable défi pour les entreprises ayant des ressources comme Rapidshare, Youtube et autres. Pour l'instant ce genre de travail peut effectivement être fait seulement par les humains.
Il existe également des problèmes d'ordre juridique. Dans certains pays, le propriétaire du service n'est pas responsable de ce que les utilisateurs apportent (s'il est assez coopératif pour supprimer certains contenus à la demande), dans d'autres il obtiendra lui-même les frais pour ne pas avoir pré-modéré tout le contenu entrant. Pensez également à cela en ce qui concerne quoi et où vous allez lancer.
Ensuite, c'est probablement une combinaison de technologie et de biologie comme le PigeonRank de Google: http: // www.google.com/technology/pigeonrank.html – User