Ordinateurs stockent les données sous forme de séquences de 1 et de 0 dans la mémoire, où chaque chiffre est appelé un peu. Pour chaque bit que vous ajoutez à une séquence de données , vous doublez le nombre de combinaisons possibles, il est capable de tenir . Par exemple, un numéro 1 -bit est titulaire de deux chiffres: 1 et 0. Un certain nombre de 2 bits détient quatre chiffres, comme 00, 01 , 10 et 11 . Un entier de 32 bits est capable de contenir 4294967296 combinaisons . L' . Net BigInteger détient encore plus de combinaisons de chiffres , car il a un nombre variable de bits . Instructions
1
Ouvrez Visual Studio 2010 et de commencer un nouveau projet en cliquant sur " Fichier" et sélectionner "Nouveau projet ".
2
sélectionner " Application console " dans le cadre du C # va dans la boîte de dialogue Nouveau projet. Un nouveau fichier de code source s'affiche dans l'espace principal , avec rien de plus qu'une fonction principale vide .
3
déclarer un nouveau type BigInteger en écrivant la ligne suivante à l'intérieur des accolades de l' " la fonction principale "dans le fichier de code source :
BigInteger bigNumber = new BigInteger (1000);
4
déclarer un nouveau type int en écrivant la ligne suivante en dessous de la ligne de code précédente : Photos
int smallNumber = 5;
5
Attribuer le BigInteger à l'entier en utilisant la fonction de conversion suivante :
smallNumber = new integer ( bigNumber.intValue ( ) ) ;