Estoy estudiando la función md5 y me he encontrado un contradicción. Segun las definiciones que he leido sobre md5: La codificación de MD5 es de 128 bits, pero:
Si los hashes son de 32 caracteres y 1 caracter es = 1 byte, es decir el hash = 32 bytes
Un byte = 8 bits
Por lo cual 8 * 32 = 256 bits
La pregunta es, por que dicen que la codificación md5 es de 128 bits, cuando al calcularlo yo manualmente me da 256 bits.
Un Saludo y gracias de antemano
No se por que hay esa contradicción pero mirar el RFC 1321 quizás te ayude a resolverla. https://tools.ietf.org/html/rfc1321 (https://tools.ietf.org/html/rfc1321)
La verdad es que hay bastante información tecnica pero ni rastro de el porque, aun haci muchas gracias. Seguire esperando a que alguien me saque de dudas.
Salud2
Lo que sucede es que la suma de verificacion MD5 tipicamente se representa en hexadecimal para poder ser mostrada en pantalla con los caracteres asci basicos, lo que quiere decir que si convertimos cada valor hex a decimal tenemos 16 digitos y 16*8 = 128 bits.
Muchas gracias darkmatrix, ahora si me cuandran las cosas.
Mil gracias de nuevo.
Salu2