Diferencia entre char y unsigned char
Publicado por jaldonfer (31 intervenciones) el 08/09/2016 20:59:22
Hola a todos:
Estoy haciendo un programa que envía datos datos por el puerto serie.
Me da algún problema y no sé por qué me está ocurriendo. Los problemas son aleatorios y los resultados es que las tramas envío al dispositivo con el que me comunico, no siempre las interpreta correectamente.
El tema es que las variables que he declarado para almacenar los datos que se envían ( es decir la vairable que parametrizo en las funciones write y recv ) son de tipo char. Mi duda es si esto está bien hecho y me pueda estar dando problemas.
¿ Para este caso sería mejor utilizar unsigned char ?
He realizado pruebas en uin programilla de test a parte con variables de ambos tipos y a ni vel de bits, los resultados son los mismos, por lo que creo que no hay diferencia... aunque la realidad es que el programa no funciona correctamente.
Puede ser el problema el que estoy utilizando tipos "char " ?
Hasta lo que tengo entendido entre los tipos char y los unsigned char, la unica diferencia entre ellos es que en los char el ultimo bit se utiliza para interpretar el signo. Esto entiendo que sea un problema si estuviese trabajando con valores BYTE a BYTE, pero lo que en realidad hago es trabajar con cadenas de char ( o como yo lo interpreto listados de bytes )
Estoy un poco perdido. ¿ Pueden ayudarme ?
Muchas Gracias
Estoy haciendo un programa que envía datos datos por el puerto serie.
Me da algún problema y no sé por qué me está ocurriendo. Los problemas son aleatorios y los resultados es que las tramas envío al dispositivo con el que me comunico, no siempre las interpreta correectamente.
El tema es que las variables que he declarado para almacenar los datos que se envían ( es decir la vairable que parametrizo en las funciones write y recv ) son de tipo char. Mi duda es si esto está bien hecho y me pueda estar dando problemas.
¿ Para este caso sería mejor utilizar unsigned char ?
He realizado pruebas en uin programilla de test a parte con variables de ambos tipos y a ni vel de bits, los resultados son los mismos, por lo que creo que no hay diferencia... aunque la realidad es que el programa no funciona correctamente.
Puede ser el problema el que estoy utilizando tipos "char " ?
Hasta lo que tengo entendido entre los tipos char y los unsigned char, la unica diferencia entre ellos es que en los char el ultimo bit se utiliza para interpretar el signo. Esto entiendo que sea un problema si estuviese trabajando con valores BYTE a BYTE, pero lo que en realidad hago es trabajar con cadenas de char ( o como yo lo interpreto listados de bytes )
Estoy un poco perdido. ¿ Pueden ayudarme ?
Muchas Gracias
Valora esta pregunta


0