Expresar tamaños en informática puede ser confuso a veces, esto es debido a la falta de estandarización entre fabricantes de hardware, programas y sistemas operativos en lo referente al uso de prefijos (K, M, G) al expresar múltiplos binarios. Un estándar existe, de esto trata el ISO/IEC 80000-13:2008, define un estándar para el uso de prefijos para múltiplos binarios, sin embargo, al momento de escribir esta publicación no ha sido ampliamente adoptado.
Esta confusión se origina de los comienzos de la informática. En computación, la unidad más básica de información es el bit, que puede verse como un interruptor, solo tiene dos estados, encendido y apagado (1 y 0). Debido a que solo se puede guardar un estado (encendido o apagado) en un bit, una unidad más grande fue creada, el byte, que es solo un grupo de bits. Un byte consiste de 8 bits, y esto nos permite representar un valor, de 0 a 255.
El SI (Sistema Internacional de Unidades) define que el prefijo K (Kilo) denota 1000, y M (Mega) representa 1000×1000, esto esta basado en nuestro sistema numérico de base 10. Originalmente 1 kilobyte quería decir 1000 bytes (103) y no había ninguna confusión. Sin embargo, en el mundo de la computación, debido a que todo está basado en el bit, el sistema numérico en uso es en base 2. La gente notó la conveniencia de denotar 1 kilobyte como 1024 bytes (210), y un megabyte como 1024×1024 (220); en lugar de la equivalencia SI de Kilo y Mega que denotan 1KB como 103 bytes, y 1MB 106 bytes.