Notação científica

Egyptian A'h-mosè or Rhind Papyrus (1065x1330).png

Notação científica, é também denominada por padrão ou notação em forma exponencial, é uma forma de escrever números que acomoda valores demasiadamente grandes (100000000000) ou pequenos (0,00000000001)[1] para serem convenientemente escritos em forma convencional.[2][3] O uso desta notação está baseado nas potências de 10[4] (os casos exemplificados acima, em notação científica, ficariam: 1 × 1011 e 1 × 10−11, respectivamente). Como exemplo, na química, ao se referir à quantidade de entidades elementares (átomos, moléculas, íons etc.), há a grandeza denominada quantidade de matéria (mol).[5]

Um número escrito em notação científica segue o seguinte modelo:

O número é denominado mantissa e a ordem de grandeza.[6] A mantissa, em módulo, deve ser maior ou igual a 1 e menor que 10, e a ordem de grandeza, dada sob a forma de expoente, é o número que mais varia conforme o valor absoluto.[7]

Observe os exemplos de números grandes e pequenos
Número por extensoNúmero em notação científicaQtd. algarismos após ou antes da vírgula
600.0005
7.000.000.000.000.000.000.000.000.000.000.00033
0,00044
0,000000000000000000000000000000000000000000000000847

A representação desses números, como apresentada, traz pouco significado prático. Pode-se até pensar que esses valores são pouco relevantes e de uso quase inexistente na vida cotidiana. Porém, em áreas como a física e a química, esses valores são frequentes.[5] Por exemplo, a maior distância observável do universo mede cerca de 740 000 000 000 000 000 000 000 000 m,[8] e a massa de um próton é aproximadamente 0,00000000000000000000000000167 kg.[9]

Para valores como esses, a notação científica é mais adequada, pois apresenta a vantagem de poder representar adequadamente a quantidade de algarismos significativos.[7][10] Por exemplo, a distância observável do universo, do modo que está escrito, sugere a precisão de 27 algarismos significativos. Mas isso pode não ser verdade (é pouco provável 25 zeros seguidos numa aferição).[5]

História

Arquimedes, o pai da notação científica.[11]

A primeira tentativa conhecida de representar números demasiadamente extensos foi empreendida pelo matemático e filósofo grego Arquimedes,[11] e descrita em sua obra O Contador de Areia,[12] no século III a.C.. Ele desenvolveu um método de representação numérica para estimar quantos grãos de areia seriam necessários para preencher o universo. O número estimado por ele foi de 1 × 1063 grãos.[13][14]

Há quem pense, Rei Gelão, que o número de grãos de areia é infinito. E quando menciono areia refiro-me não só aquela que existe em Siracusa e no resto da Sicília mas também àquela que se encontra nas outras regiões, sejam elas habitadas ou desabitadas. Mais uma vez, há quem, sem considerá-lo infinito, pense que nenhum número foi ainda nomeado que seja suficientemente grande para exceder a sua multiplicidade. E é claro que aqueles que têm esta opinião, se imaginassem uma massa de areia tão grande como a massa da terra, incluindo nesta todos os mares e depressões da terra preenchidas até uma altura igual à mais alta das montanhas, estariam muito longe ainda de reconhecer que qualquer número poderia ser expresso de tal forma que excedesse a multiplicidade da areia aí existente. Mas eu tentarei mostrar-vos, através de provas geométricas que conseguireis acompanhar que, dos números nomeados por mim e que constam no trabalho que enviei a Zeuxipo, alguns excedem, não só o número da massa de areia igual em magnitude à da terra preenchida da maneira que atrás referi, mas também da massa igual em magnitude à do universo.

O contador de areia (Arquimedes), pg. 1[12]

Foi através da notação científica que foi concebido o modelo de representação de números reais através de ponto flutuante.[15] Essa ideia foi proposta independentemente por Leonardo Torres y Quevedo (1914), Konrad Zuse (1936) e George Robert Stibitz (1939).[11] A codificação em ponto flutuante dos computadores atuais é basicamente uma notação científica de base 2.[16]

A programação com o uso de números em notação científica consagrou uma representação sem números sobrescritos, em que a letra e (ou E) separa a mantissa do expoente. Assim, 1,785 × 105 e 2,36 × 10−14 são representados respectivamente por 1.785E5 e 2.36E-14 (como a maioria das linguagens de programação são baseadas na língua inglesa, as vírgulas são substituídas por pontos).[11]