Bonjour je voudrais programmer ou plutot porter un webcrawler de perl vers C# pour plus de puissance et d'�fficatit� parce que voir un programme de 80Ko prendre 800Mo de ram sa fait froid dans le dosce probl�me est du au threads qui ne sont pas vraiment au point dans perl.
Je me suis renseign� sur la faisabilit� d'un webcrawler complet utilisant C#, mais j'ai quelques questions sans r�ponde pour l'instant !!
Comment avec le framework impl�ment� la gestion des cookies lors d'une requ�te HTTP?
Existe il une classe de gestion des fichiers robots.txt en dans l'un des language .NET ?
Existe il des structure associative en C# parce que j'ai beau cherch� je ne trouve pas de renseignement la dessus mon hash en perl ressemble a cela
Si un tel structure n'existe pas je peut passer par une structure Xml
Code : S�lectionner tout - Visualiser dans une fen�tre � part
1
2
3
4
5
6
7
8
9
10 my $data = { url => $res->base, code => $res->content ..... links => { $backlink => 1, ..... } .... }
merci a tous et bon code![]()
Partager