Bonjour � tous,
C'est presque une question de C, mais comme je programme en C++, me voil�.
Quand on fait un d�calage de n bits, combien de temps cel� prend t-il, en coup d'horloge CPU ? n ? Ou bien y a t-il une astuce ?
J'essaye de comparer les deux approches oppos�es : logique c�bl�s (FPGA), et approche s�quentielle (CPU).
Exemple :
Code : S�lectionner tout - Visualiser dans une fen�tre � part
1
2
3 int mot = 0x55555555; int dec = (mot >> 7) & 0xFF; // quel impact ?![]()
Partager