DICCIONARIO DE INFORMÁTICA Y TECNOLOGÍA
  ¿Qué significa timestamp? - Información sobre timestamp

Definición de timestamp

Leandro Alegsa (Contacto) 2010-12-01
Anuncios

El timestamp es una secuencia de caracteres que representa una fecha y/u hora específicas. El timestamp es el tiempo en que un evento es guardado por una computadora, no el tiempo del evento en sí mismo (generalmente la diferencia no es importante, dado que son muy cercanos entre sí en el tiempo).

El timestamp suele presentarse en un formato determinado y consistente, permitiendo así la comparación entre sí.

Algunos ejemplos de formatos de timestamps:
* Mon Jul 21 09:40:22 2010
* 2010-05-10 T 12:40 UTC
* 1829472839

El estándar ISO 8601 se encarga de los formatos de las fechas, muchas veces los timestamps siguen dichos estándares.

El timestamp suele emplearse para guardar registros. En sistemas de archivos el timestamp puede almacenar la fecha/hora de la creación o modificación de un archivo.

En sistemas UNIX, el timestamp es un número que se refiere a la cantidad de segundos transcurridos desde las 00:00:00 UTC del 1 de enero de 1970.





¿Mejoramos la definición?
Puntos: 0 (0 votos)






Respondemos tus consultas o comentarios a continuación:


¿Dudas? ¿necesita más información? Escriba y responderemos a tu email: clic aquí



 




Diccionario de informática
  Búsqueda por letras:
A - B - C - D - E - F - G - H - I - J - K - L - M - N - O - P - Q - R - S - T - U - V - W - X - Y - Z - 0,9
 
Búsqueda por categorías
: Almacenamiento - Aplicaciones - Audio - Compresión - Desarrollo web - Discos ópticos - Inteligencia Artificial - Memorias - Microprocesadores - Seguridad informática - Sistemas de archivos - Terminología de programación - UNIX - Windows - ver categorías

 
Búsqueda por palabras:





Preguntas

No hay ningún comentario todavía

Todos los derechos reservados © 1998 - 2016 - ALEGSA - Santa Fe, Argentina.
Políticas del sitio web - Contacto - Publicidad