Linea de Tiempo evolucion de la Teoria de Automatas y Lenguajes Formales

  • Giuseppe Peano

    Giuseppe Peano
    Aportes a la lógica matemática con su libro de símbolos modernos para la unión e intersección de conjuntos. La teoría de conjuntos es una rama de la lógica matemática que estudia las propiedades y relaciones de los conjuntos: colecciones abstractas de objetos, consideradas como objetos en sí mismas. Los conjuntos y sus operaciones más elementales son una herramienta básica en la formulación de cualquier teoría matemática.
  • Period: to

    David Hilbert

    Son las matemáticas completas, consistentes y decidibles cuestionantes fundamentales que fueron el punto de partida para D. Hilbert, su meta era crear un sistema matemático formal "completo" y "consistente", encontrar un algoritmo que determinara la verdad o falsedad de cualquier proposición en el sistema formal, por desgracia para Hilber en la década de 1930 se produjeron una serie de investigaciones que demostraron que su teoría no era posible.
  • Kurt Godel

    Kurt Godel
    Los teoremas de incompletitud de Gödel son dos célebres teoremas de lógica matemática. El primer teorema de incompletitud afirma que, bajo ciertas condiciones, ninguna teoría matemática formal capaz de describir los números naturales y la aritmética con suficiente expresividad, es a la vez consistente y completa. El segundo teorema de incompletitud es un caso particular del primero: afirma que una de las sentencias indecidibles de dicha teoría es aquella que «afirma» la consistencia de la misma.
  • Alan Turing

    Alan Turing
    Turing señalo que había tenido éxito en caracterizar de un modo matemático preciso, por medio de sus maquinas, la clase de las funciones calculables mediante un algoritmo, lo que se conoce hoy como TESIS DE TURING
  • Stephen Cole Kleene

    Stephen Cole Kleene
    Kleene demuestra formalmente la equivalencia entre funciones definible y funciones re cursivas de Hembrand-Godel y da ejemplo de problemas irresolubles utilizando la noción de función recursiva
  • Church

    Church propuso la noción de función definible como función efectivamente calculable. la demostración de teoremas se convierte en una transformacional de una cadena de símbolos en otra. en calculo lambda, según un conjunto de reglas formales, este sistema resulto ser inconsistente, pero la capacidad para expresar-calcular funciones numéricas como términos del sistema llamo pronto la atención de el y sus colaboradores
  • E. Post

    este estaba interesado en marcar la frontera entre lo que se puede hacer en matemáticas simplemente por procedimientos formales y lo que depende de la comprensión y el entendimiento. de esta forma, Post formula un modelo de procedimiento efectivo a través de los llamado sistema deductivos normales
  • McCulloch y Pitts

    McCulloch y Pitts
    La neurona de McCulloch-Pitts es una unidad de cálculo que intenta modelar el comportamiento de una neurona "natural", similares a las que constituyen del cerebro humano. Ella es la unidad esencial con la cual se construye una red neuronal artificial. El resultado del cálculo en una neurona consiste en realizar una suma ponderada de las entradas, seguida de la aplicación de una función no lineal, como se ilustra en la siguiente figura
  • Claude Shannon

    define los fundamentos de la teoría de la información, y utiliza esquemas para poder definir sistemas discretos, parecidos a los autómatas finitos, relacionándolos con cadenas de Markow, para realizar aproximaciones a los lenguajes naturales
  • Von Neumann

    Von Neumann
    La arquitectura von Neumann​ describe una arquitectura de diseño para un computador digital electrónico con partes que constan de una unidad de procesamiento que contiene una unidad aritmético lógica y registros del procesador, una unidad de control que contiene un registro de instrucciones y un contador de programa, una memoria para almacenar tanto datos como instrucciones, almacenamiento masivo externo, y mecanismos de entrada y salida.
  • Stephen Cole Kleene

    Stephen Cole Kleene
    realiza un informe sobre los trabajos de McCulloch-Pitts que se publica en 1956. En este informe Kleene demuestra la equivalencia entre lo que el llama "dos formas de definir una misma cosa", que son los sucesos regulares ,es decir expresiones regulares, y sucesos especificados por un autómata finito
  • Claude Shannon

    propone tres modelos para la descripción de lenguajes, que son la base de la futura jerarquía de los tipos de lenguajes, que ayudo también en el desarrollo de los lenguajes de programación
  • Autómata finito - Michael O. Rabin y Dana Scott

    obtienen un modelo de computador con una cantidad finita de memoria, al que llamaron autómata de estados finitos. demostraron que su comportamiento posible era básicamente el mismo que el descrito mediante expresiones regulares, desarrolladas a partir del trabajo de McCulloch y Pitts
  • Uso en Sistemas Operativos UNIX

    Uso en Sistemas Operativos UNIX
    Finalmente, con el desarrollo del sistema operativo Unix en la década de 1970, los autómatas finitos encuentran su nicho en el uso masivo de expresiones regulares para fines prácticos, específicamente en el diseño de analizadores léxicos (comando lex) y la búsqueda y reemplazo de texto (comandos ed y grep).​ A partir de ese tiempo, los autómatas finitos también se comienzan a utilizar en sistemas dinámicos.