exposicion de int artifi

23
REPÚBLICA BOLIVARIANA DE VENEZUELA MINISTERIO DEL PODER POPULAR DE LA EDUCACIÓN SUPERIOR UNIVERSIDAD NACIONAL EXPERIMENTAL RÓMULO GALLEGOS AIS: INGENIERÍA EN INFORMÁTICA UNIDAD CURRICULAR: ELECTIVA V SAN JUAN DE LOS MORROS – EDO. GUÁRICO Profesor: Bachilleres: Omar Godon C.I. 20588989 Valera Marisol Sección: 1 C.I.22950148Padilla Lee

Upload: ivan-cardozo

Post on 13-Dec-2015

217 views

Category:

Documents


0 download

DESCRIPTION

electiva

TRANSCRIPT

Page 1: Exposicion de Int Artifi

REPÚBLICA BOLIVARIANA DE VENEZUELA

MINISTERIO DEL PODER POPULAR DE LA EDUCACIÓN SUPERIOR

UNIVERSIDAD NACIONAL EXPERIMENTAL RÓMULO GALLEGOS

AIS: INGENIERÍA EN INFORMÁTICA

UNIDAD CURRICULAR: ELECTIVA V

SAN JUAN DE LOS MORROS – EDO. GUÁRICO

Profesor: Bachilleres:

Omar Godon C.I. 20588989 Valera Marisol

Sección: 1 C.I.22950148Padilla Lee

Abril – 2013.

Page 2: Exposicion de Int Artifi

DEFINICION DE INTELIGENCIA ARTIFICIAL

Debido a que la inteligencia artificial tuvo muchos padres no hay un

consenso para definir ese concepto, pero podemos decir que la inteligencia

artificial se encarga de modelar la inteligencia humana en sistemas

computacionales.

La inteligencia artificial se basa en dos áreas de estudio: el cuerpo

humano y el ordenador electrónico. Puesto que la meta es copiar la

inteligencia humana, es necesario entenderla. Sin embargo, a pesar de todos

los progresos en Neurología y Psicología, la inteligencia del hombre se

conoce poco, exceptuando sus manifestaciones externas. Muchos

estudiosos de la inteligencia artificial se han vuelto para obtener su modelo

de inteligencia hacia el estudio de la Psicología cognoscitiva, que aborda la

forma de percibir y pensar de los seres humanos.. Después comprueban sus

teorías programando los ordenadores para simular los procesos

cognoscitivos en el modelo. Otros investigadores intentan obtener teorías

generales de la inteligencia que sean aplicables a cualquier sistema de

inteligencia y no solo al del ser humano.

Por lo cual puede decirse que la Inteligencia Artificial (IA) es una de las

áreas más fascinantes y con más retos de las ciencias de la computación, en

su área de ciencias cognoscitivas. Nació como mero estudio filosófico

y razonistico de la inteligencia humana, mezclada con la inquietud del

hombre de imitar la naturaleza circundante (como volar y nadar), hasta

inclusive querer imitarse a sí mismo. Sencillamente, la Inteligencia Artificial

busca el imitar la inteligencia humana. Obviamente no lo ha logrado todavía,

al menos no completamente.

Page 3: Exposicion de Int Artifi

HISTORIA

La Inteligencia Artificial "nació" en 1943 cuando Warren McCulloch y

Walter Pitts propusieron un modelo de neurona del cerebro humano y animal.

Estas neuronas nerviosas abstractas proporcionaron una representación

simbólica de la actividad cerebral.

Más adelante, Norbert Wiener elaboró estas ideas junto con otras,

dentro del mismo campo, que se llamó "cibernética"; de aquí nacería, sobre

los años 50, la Inteligencia Artificial.Los primeros investigadores de esta

innovadora ciencia, tomaron como base la neurona formalizada de

McCulloch y postulaban que:

“El cerebro es un solucionador inteligente de problemas, de modo que

imitemos al cerebro”.

Pero si consideramos la enorme complejidad del mismo esto es ya

prácticamente imposible, ni que mencionar que el hardware de la época ni el

software estaban a la altura para realizar semejantes proyectos. Se comenzó

a considerar el pensamiento humano como una coordinación de tareas

simples relacionadas entre sí mediante símbolos. Se llegaría a la realización

de lo que ellos consideraban como los fundamentos de la solución inteligente

de problemas, pero lo difícil estaba todavía sin empezar, unir entre sí estas

actividades simples.

Es en los años 50 cuando se logra realizar un sistema que tuvo cierto

éxito, se llamó el Perceptrón de Rossenblatt. Éste era un sistema visual de

reconocimiento de patrones en el cual se asociaron esfuerzos para que se

pudieran resolver una gama amplia de problemas, pero estas energías se

diluyeron enseguida.

Page 4: Exposicion de Int Artifi

Fue en los años 60 cuando Alan Newelly Herbert Simon, que

trabajando la demostración de teoremas y el ajedrez por ordenador logran

crear un programa llamado GPS (General ProblemSolver: solucionador

general de problemas). Éste era un sistema en el que el usuario definía un

entorno en función de una serie de objetos y los operadores que se podían

aplicar sobre ellos. Este programa era capaz de trabajar con las torres de

Hanoi, así como con criptoaritmética y otros problemas similares, operando,

claro está, con microcosmos formalizados que representaban los parámetros

dentro de los cuales se podían resolver problemas. Lo que no podía hacer el

GPS era resolver problemas ni del mundo real, ni médicos ni tomar

decisiones importantes. El GPS manejaba reglas heurísticas (aprender a

partir de sus propios descubrimientos) que la conducían hasta el destino

deseado mediante el método del ensayo y el error.

En los años 70, un equipo de investigadores dirigido por Edward

Feigenbaum comenzó a elaborar un proyecto para resolver problemas de la

vida cotidiana o que se centrara, al menos, en problemas más concretos. Así

es como nació el sistema experto.El primer sistema experto fue el

denominado Dendral, un intérprete de espectrograma de masa construido en

1967, pero el más influyente resultaría ser el Mycin de 1974. El Mycin era

capaz de diagnosticar trastornos en la sangre y recetar la correspondiente

medicación, todo un logro en aquella época que incluso fueron utilizados en

hospitales (como el Puff, variante de Mycin de uso común en el Pacific

Medical Center de San Francisco, EEUU).

Ya en los años 80, se desarrollaron lenguajes especiales para utilizar

con la Inteligencia Artificial, tales como el LISP o el PROLOG. Es en esta

época cuando se desarrollan sistemas expertos más refinados, como por el

Page 5: Exposicion de Int Artifi

ejemplo el EURISKO. Este programa perfecciona su propio cuerpo de reglas

heurísticas automáticamente, por inducción.

Desarrollo Histórico (según Jackson, 1986)

1950-1965 Periodo “clásico”.

Gestación (McColluck y Pitts, Shannon, Turing)

Inicio - reunión de DarmouthCollege en 1956 (Minsky, McCarthy)

Redes neuronales, robótica (Shakey)

Búsqueda en un espacio de estados, Heurísticas, LISP

Solucionador general de problemas (GPS) (Newell, Simon)

Juegos, prueba de teoremas

Limitaciones de pura búsqueda, explosión combinatoria.

1965-1975 Periodo “romántico”.

Representación “general” del conocimiento.

Redes semánticas (Quillian)

Prototipos (frames) (Minsky)

Perceptrón (Minsky y Papert)

Lógica (Kowalski)

Mundo de bloques (SHDRLU) (Winograd)

Compresión de lenguaje, visión, robótica.

Dificultades de representación “general”, problemas de “juguete”.

1975-Hoy Periodo “moderno”. Inteligencia “especifica” vs. “general”.

Representación explícita del conocimiento específico del dominio.

Sistemas expertos o basados en conocimiento.

Regreso de redes neuronales (Hopfield, Rumelhart, Hinton),

algoritmos genéticos (Holland, Goldberg) Reconocimiento de voz

Page 6: Exposicion de Int Artifi

(HMM), incertidumbre (RB, Lógica difusa), planeación, aprendizaje.

Aplicaciones “reales” (medicina, finanzas, ingeniería, exploración,

etc.).

Limitaciones: conocimiento “superficial”

Desarrollo Histórico (según Russell y Norvig, 1995):

Gestación (1943-1956):

McCullock y Pitts (1943)

Hebb (1949)

Shannon (1950)

Turing (1953)

Minsky y Edmonds (1951)

DarmouthCollege (1956)

McCarthy, Newell y Simon, « The LogicTheorist »

Entusiasmo y grandes expectativas (1952-1969):

Samuel - checkers (1952)

McCarthy (1958): LISP: time sharing, Programs withcommonsense.

Minsky y McCarthy en MIT moldearon mucho del área.

Minsky, Evans, Student, Waltz, Winston, Winograd, etc.

Trabajo en RN: Hebb, Widrow, Rosenblatt

Dosis de realidad (1966-1974):

Simon predecía que en 10 años se tendría una máquina inteligente.

Predicciones similares en traducción automática y ajedrez.

Teoría de NP- completness.

Experimentos en machine evolution (ahora algoritmos genéticos;

estaban bien fundados pero no produjeron nada.) (Friedberg, 1958)

Page 7: Exposicion de Int Artifi

Minsky y PapertPerceptrons (1969) (aunque irónicamente el mismo

año se descubrió backpropagation (Bryson y Ho))

Sistemas basados en conocimiento (1969-1979):

Dendral, Mycin, HPP, Prospector, Winograd, SHDRLU, Shank (no hay

sintáxis), frames, Prolog, Planner

IA como industria (1980-1988):

R1/XCON, proyecto de la quinta generación, shells y máquinas de

LISP.

Regreso de redes neuronales (1986-presente):

Hopfield, Rumelhart y Hinton y descenso de los SE

Eventos recientes (1987-1995-2000-hoy)

Avances y utilización de tecnología para el reconocimiento de imagen,

voz y sonido.

Beliefnetworks, "probabilidades" que permiten formalismo para tratar

incertidumbre.

Desarrollo de mecanismos lógicos para tratar incertidumbre. Ej.lógica

difusa, lógica modal,

Razonamiento:

– Satisfacción de restricciones

– Búsqueda heurística

– Razonamiento basado en modelos

– Razonamiento no monótono

– Planificación de tareas y scheduling

– Razonamiento cualitativo

– Razonamiento con incertidumbre

Page 8: Exposicion de Int Artifi

– Razonamiento temporal y espacial

Aprendizaje Automático:

– Razonamiento basado en casos

– Análisis de datos

– Computación evolutiva

– Redes de neuronas

– Aprendizaje por refuerzo

Ingeniería del Conocimiento y Aplicaciones:

– Lógica

– Sistemas de apoyo a la decisión

– Interacción hombre-máquina inteligente

– Gestión del conocimiento

– Representación del conocimiento

– Ontologías y Web semántica

– Sistemas Multi-agente e IA distribuida

Robótica, Percepción, Procesamiento Del Lenguaje Natural:

– Robótica y control

– Procesamiento del lenguaje natural

– Percepción (visión, reconocimiento del habla)

– Creatividad, juegos, inteligencia ambiental

ENFOQUES:

Los 4 enfoques

Actuar como humano: el enfoque de la prueba de Turing.El modelo es el

hombre; el objetivo es construir unsistema que pase por humano.

Prueba de Turing (1950): si un sistema la pasa es inteligente. Capacidades

necesarias:

Page 9: Exposicion de Int Artifi

Procesamiento del lenguaje natural

Representación del conocimiento

Razonamiento

Aprendizaje.

Pasar la Prueba no es el objetivo primordial de la IA. La interacción de

programas con personas hace que sea importante que éstos puedan actuar

como humanos.

Pensar como humano: el enfoque delmodelo cognitivo. (Ciencia

Cognitiva)El modelo es el funcionamiento de lamente humana.

Se intenta establecer una teoría sobre el funcionamiento de la mente

(experimentación psicológica).

A partir de la teoría se pueden establecer modelos computacionales.

Influencia de las neurociencias y de las ciencias cognitivas.

Pensar racionalmente: el enfoque de las leyes del pensamiento.

(Silogismos, lógica). Los humanos no son siempre racionales.

Aristóteles fue el primero en intentar definir unproceso de raciocinio

irrefutable.El desarrollo los silogismos

Los silogismos establecen estructuras de argumentaciónque siempre llevan a

conclusiones correctas, a partir depremisas correctas.

“Sócrates es un hombre”

“Todos los hombres son mortales”entonces “Sócrates es mortal”.

Esto inicio el campo de la lógica.

Este campo fue expandido en el siglo XIX porBoole, Pascal, Bayes, etc.

Existen dos problemas con este enfoque:

Dificultad de definir el conocimiento informal y colocarloen notación lógica

(especialmente cuando el conocimientono es 100% preciso).

Existe una gran diferencia entre resolver un problema enla teoría y en la

práctica.

Page 10: Exposicion de Int Artifi

Actuar en forma racional: el enfoque delagente racional. (Agentes, percepción,Acciones). Implica la personalidad y actitud lógica según un pensamiento razonado.

UTILIDAD

AREAS DE APLICACIÓN:

La Inteligencia Artificial influye en varios campos de desarrollo tales

como: la robótica, en el campo industrial; comprensión de lenguajes y

traducción; visión en máquinas que se usan en líneas de ensamblaje;

reconocimiento de palabras y aprendizaje de máquinas; sistemas

computacionales expertos entre otros.Los sistemas expertos, que

reproducen el comportamiento humano en un estrecho ámbito del

conocimiento, son programas tan variados como los que diagnostican

infecciones en la sangre e indican un tratamiento, los que interpretan datos

sismológicos en exploración geológica y los que configuran complejos

equipos de alta tecnología. Tales tareas reducen costos, reducen riesgos en

la manipulación humana en áreas peligrosas, mejoran el desempeño del

personal inexperto, y mejoran el control de calidad sobre todo en el ámbito

comercial.

METODOLOGIA

1. La lógica difusa: permite tomar decisiones bajo condiciones de incerteza.

2. Redes neuronales: esta tecnología es poderosa en ciertas tareas como la

clasificación y el reconocimiento de patrones. Está basada en el concepto de

"aprender" por agregación de un gran número de muy simples elementos.

Este modelo considera que una neurona puede ser representada por

Page 11: Exposicion de Int Artifi

una unidad binaria: a cada instante su estado puede ser activo o inactivo. La

interacción entre las neuronas se lleva a cabo a través de sinapsis. Según el

signo, la sinapsis es excitadora o inhibidora.

El perceptrón está constituido por las entradas provenientes de

fuentes externas, las conexiones y la salida. En realidad un perceptrón es

una Red Neuronal lo más simple posible, es aquella donde no existen capas

ocultas.

Para cada configuración de los estados de las neuronas de entrada

(estímulo) la respuesta del perceptrón obedece a la siguiente dinámica: se

suman los potenciales sinápticos y se comparan con un umbral de

activación. Esta suma ponderada es también llamada campo. Si el campo es

mayor que un umbral, la respuesta de la neurona es activa, si no, es inactiva.

Con una arquitectura tan simple como la del perceptrón no se puede

realizar más que una clase de funciones "booleanas" muy simples, llamadas

linealmente separables. Son las funciones en las cuales los estados de

entrada con salida positiva pueden ser separados de aquellos a salida

negativa por un hiperplano. Un hiperplano es el conjunto de puntos en el

espacio de estados de entrada, que satisfacen una ecuación lineal. En dos

dimensiones, es una recta, en tres dimensiones un plano, etc.

Si se quieren realizar funciones más complejas con Redes

Neuronales, es necesario intercalar neuronas entre las capas de entradas y

de salida, llamadas neuronas ocultas. Una red multicapas puede ser definida

como un conjunto de perceptrones, ligados entre si por sinapsis y dispuestos

en capas siguiendo diversas arquitecturas. Una de las arquitecturas más

comúnmente usada es llamada feedforward: con conexiones de la entrada a

las capas ocultas y de éstas hacia la salida.

Page 12: Exposicion de Int Artifi

El funcionamiento de una Red Neuronal es gobernado por reglas de

propagación de actividades y de actualización de los estados.

TECNICAS:

Aprendizaje Automàtico (Machine Learning) Ingenierìa del conocimiento (KnowledgeEngineering) Lògica difusa (FuzzyLogic) Redes neuronales artificiales (Artificial Neural Networks) Sistemas reactivos (Reactive Systems) Sistemas multi-agente (Multi-AgentSystems) Sistemas basados en reglas (Rule-BasedSystems) Razonamiento basado en casos (Case-BasedReasoning) Sistemas expertos (ExpertSystems) Redes Bayesianas (Bayesian Networks) Vida artificial (Artificial Life). La VA no es un campo de la IA, sino que la IA

es un campo de la VA. Computaciòn evolutiva (EvolutionaryComputation) Estrategias evolutivas Algoritmos genèticos (GeneticAlgorithms) Tècnicas de Representaciòn de Conocimiento Redes semànticas (Semantic Networks)m Frames Vision artificial Audicion artificial Linguìstica computacional Procesamiento del lenguaje natural (Natural LanguageProcessing) Minerìa de datos (Data Mining)

RELACIÒN CON LA INGENIERÌA INFORMÀTICA

La Inteligencia Artificial es una rama de la informática que estudia la

inteligencia e intenta imitarla de forma artificial, la inteligencia artificial tiene

relación ya que usan sistemas que razonan Esta rama es la encargada de

desarrollar sistemas con capacidad real o aparente de dialogar de forma

inteligente y, consecuentemente, de razonar.

Page 13: Exposicion de Int Artifi

La programación es usada en los robots por eso es muy importante la

ingeniería en informática con la inteligencia artificial. La programación que se

emplea en la robótica tiene caracteres diferentes: explícito, en el cual el

operador es el responsable de las acciones de control y de las instrucciones

adecuadas que las implementan, o estar basada en la modelación del mundo

exterior, cuando se describe la tarea y el entorno y el propio sistema toma las

decisiones.

Page 14: Exposicion de Int Artifi

Introducción

La inteligencia artífica es de gran importancia porque su argumento

es muy extenso ya que no es algo inalcanzable, sino que al contrario se

encuentra presente en nuestras vidas cotidianas. Ella desea emular el

comportamiento de los seres vivos; como principal aplicación de esta ciencia

es la creación de máquinas para la automatización de tareas que requieran

un comportamiento inteligente. La misma viene basada desde una historia

nacía en el año 1943, pasando por varios periodos que en ella se razonan.

Se considera la inteligencia artificial basándose en unos enfoques que

suministran el comportamiento de cada uno de ellos como: el pensar, el

actuar, entre otros. Las técnicas que ella lleva proporcionada; acotando las

áreas de aplicación que en ella se desarrollan y sin dejar atrás las

metodologías con quien ellas se relacionan.

Page 15: Exposicion de Int Artifi

Conclusión.

La Inteligencia Artificial es una rama de la informática que estudia la

inteligencia e intenta imitarla de forma artificial, la inteligencia artificial tiene

relación ya que usan sistemas que razonan; esta viene basada en la relación

que existe con la ingeniería en informática, destacando como principal la

programación que es usada en los robots. Asimismo se puede manifestar

que la inteligencia artificial se basa en dos áreas de estudio: el cuerpo

humano y el ordenador electrónico. Puesto que la meta es copiar la

inteligencia humana, es necesario entenderla. Ella nace 1943 cuando Warren

McCulloch y Walter Pitts propusieron un modelo de neurona del cerebro

humano y animal; señalando varios desarrollos históricos según su

evolución.

La Inteligencia Artificial influye en varios campos de desarrollo tales

como: la robótica, en el campo industrial; comprensión de lenguajes y

traducción; visión en máquinas que se usan en líneas de ensamblaje;

reconocimiento de palabras y aprendizaje de máquinas; sistemas

computacionales expertos entre otros.

Las metodologías que en ellas se converge son la lógica difusa la cual

permite tomar decisiones bajo condiciones de incerteza. Y las de redes

neuronales donde explica que está basada en el concepto de "aprender" por

agregación de un gran número de muy simples elementos.