1. Diferencias entre la POO y la programación estructurada Que una se basa en objetos (Moldes de datos de un conjunto) Eje quieres una agenda tu objeto agruparía .Nombre .Dirección .Edad Un Conjunto De Variables que tienen algo en común Que Todas Juntas forman un Objeto Agenda Mientras que la estructurada Todo es secuencial todas tus variables son independientes pero pueden asociarse en el momento que quieran con otras se asocian lógicamente ya que el declarar Char Nombre con un char Edad no significa que se hable de la misma persona pero por intuición las asocias son más fáciles de entender pero el código se vuelve más extenso son las diferencias que les veo, pero el poo (orientada objetos es mucho más extenso y útil) eso es lo básico
ENSAYO LA CRISIS DEL SOFTWARE
Se fundamento en el tiempo de la creación del software, ya que en la creación del mismo no se obtenían los resultados deseados, además de un gran costo y poca flexibilidad. Este termino informático fue acuñado en 1968 en la primera conferencia organizada por la OTAN, en esta misma conferencia se utilizo por primera vez el termino INGENIERIA DEL SOFTWARE. Básicamente la crisis del software se refiere a la dificultad de escribir programas libres de defectos, esto se debe, entre otras causas, a la complejidad de programar y los cambios que hay que hacer para que un programa se adapte a las necesidades del .
REFERENCIAS DE LOS CONOCIMIENTOS PARA EL DESARROLLO DE SOFTWARE EN 1968
1. En 1962 se publico el primer algoritmo para búsquedas binarias
2. En 1966 se publico un documento donde se creaba la programación estructurada en remplazo de la sentencia GoTo.
3. En 1968 los programadores debatían si debían usar la sentencia GoTo, que era una instrucción cuyo objetivo era el de controlar el flujo del programa, o utilizar la nueva programación estructurada en donde la comunidad informática creo para este nuevo modelo de programar las sentencias de control, como lo son el If, el for y do/while, en vez de la sentencia GoTo.
Entonces se podía ver que las innovaciones para esa época ya se venían dando pensando en la comodidad y en el mejor entendimiento de la programación, pero sin embargo no era suficiente para darle al software un desempeño optimo y preciso y que a futuro no presentara tantas fallas y debió ser por esto que en 1968 se acuño el termino de crisis del software.
CAUSAS DE LA CRISIS DEL SOFTWARE Hay varias razones que pueden ser propuestas como causa de la crisis. No son mutuamente excluyentes; de hecho, es posible que la verdadera causa sea una mezcla de todas ellas. Sin embargo, todas tienen en común que son causadas por el método de valorar los avances científicos y el mecanismo actual de financiación de la actividad científica. Las causas de la crisis del software fueron vinculadas a la complejidad en general del proceso de software y a la relativa inmadurez de la ingeniería de software como una profesión. La crisis se manifestó a sí misma en varias maneras: 1. Proyectos gestionados con un sobre-presupuesto. 2. Proyectos gestionados con sobre tiempo. 3. Software de baja calidad. 4. El software a menudo no satisfacía los requerimientos deseados. 5. Los proyectos fueron inmanejables, con un código difícil de mantener.
A veces cuesta pensar que una crisis de algo dure por tanto tiempo, ya son 54 años desde que se acuño el termino y según veo la crisis sigue vivita y coleando. Se piensa, y equivocadamente, que ya todo esta inventado o mejorado pero por lo visto no es así, faltan muchas cosas que mejorar en este mundo tan tecnológico pero con tantos vacíos en esa tecnología, pero me hago unas pregunta, ¿Si se pensara que la crisis ya no existe que seria del software?, ¿se harían software tan poderosos?, ¿se habría avanzado tanto en la creación de programas?, quien sabe, a veces en el mismo afán de salir de una crisis se descubren cosas que mejoran aun mas las anteriores y como no se llega a un limite entonces se sigue hacia adelante hasta que el tiempo diga stop. Si la crisis del software algún día llega a un final total, la ingeniería del software también lo haría y quizás una nueva forma de hacer programas surja, ya uno no sabe, por que quien pensaría hace 50 años que esto avanzaría de la forma que lo ha hecho, quien en esa época podía pensar por lo menos que llevaríamos casi una computadora en el bolsillo, entonces podríamos mirarlo en perspectiva y pensar en el año 2062, ¿que tendremos en avances tecnológicos?, claro todo eso depende si los mayas se equivocan.
Ventajas de la Realidad Virtual Aunque las desventajas de VR son numerosos, por lo que son las ventajas. Muchos campos diferentes pueden utilizar la realidad virtual como una manera de
formar a los alumnos sin tener que poner a nadie en peligro. Esto incluye los campos de la medicina, la aplicación de la ley, la arquitectura y la aviación. VR también ayuda a aquellos que no pueden salir de la experiencia de casa de una vida mucho más plena. Estos pacientes pueden explorar el mundo a través de entornos virtuales como Second Life, una comunidad VR en Internet, la exploración de ciudades virtuales, así como ambientes más extravagantes como JRR La Tierra Media de Tolkien. VR también ayuda a los pacientes a recuperarse del derrame cerebral y otras lesiones. Los médicos usan VR para ayudar a volver a enseñar los movimientos musculares, como caminar y el acaparamiento, así como los movimientos físicos más pequeños, como apunta. Los médicos utilizan los entornos informáticos maleables para aumentar o disminuir el movimiento necesario para agarrar o mover un objeto. Esto también ayuda a registrar con exactitud la rapidez con que un paciente es el aprendizaje y la recuperación. Aprender a manipular objetos Beneficios para personas con ciertas minusvalías Entrenamiento en situaciones peligrosas Permite un examen minucioso de hechos y procesos Poner a prueba modelos Poner a prueba principios Simulación de una pauta de actuación Visualización en 360º
Frente a la exposición en imaginación: La Realidad Virtual es más inmersita, ya que se estimulan varias modalidades sensoriales (auditivas, visuales y vestibulares), lo cual resulta muy conveniente para aquellas personas que tienen problemas para imaginar. La Realidad Virtual permite al terapeuta saber en cada momento lo que el paciente está viendo, y por tanto puede saber con mayor precisión qué estímulo está provocando la respuesta de miedo. La Realidad Virtual permite reducir el número de sesiones respecto al tratamiento de exposición en imaginación.
Frente a la exposición en vivo: La Realidad Virtual permite ofrecer exposición a aquellas personas que se niegan a someterse a la exposición en vivo porque les resulta demasiado difícil o amenazador.
Ofrece un mayor grado de confidencialidad, en el sentido de que el tratamiento se hace en consulta, por lo que la persona no tiene por qué temer que si la exposición se realiza en un ambiente público, los demás puedan conocer su problema. Permite diseñar a medida la jerarquía de exposición, con lo que la persona puede exponerse a prácticamente todas las situaciones posibles. Es segura, en tanto que la persona (y el terapeuta) controlan en todo momento lo que ocurre en el ambiente virtual, cosa que en muchas ocasiones depende del azar en las exposiciones en vivo. Se puede repetir la exposición a una situación todas las veces que sea necesario hasta conseguir que la ansiedad baje. La exposición se hace en la propia consulta, lo que la convierte en más rentable en términos de tiempo y dinero (piénsese, por ejemplo en la fobia a volar). La gran cantidad de situaciones reales permite personalizar el tratamiento (más de 100).
Ventajas de las redes neuronales artificiales Las redes neuronales artificiales se inspiran en ideas tomadas de la neurobiología. En 1836, los científicos descubrieron que el sistema nervioso de los seres vivos consiste de elementos interconectados que trabajan en paralelo (la doctrina de la neurona). Más tarde, en 1949, se observó que la resistencia a la sinapsis podría reducirse por la exposición repetida a las señales entrantes (regla de aprendizaje de Hebb). Como sistemas adaptativos e inteligentes, las redes neuronales son robustas y sobresalen en la solución de problemas complejos. Las redes neuronales son tan eficientes como su programación, pero los científicos coinciden en que las ventajas del uso de las RNA son mayores que los riesgos. omo ya hemos dicho, las redes neuronales, debido a su constitución y fundamento, presentan grandes semejanzas con el cerebro. Por ejemplo, son capaces de aprender de la experiencia, de generalizar de casos anteriores a nuevos casos, de abstraer características esenciales a partir de entradas que representan información irrelevante…Entre las ventajas se incluyen:
Tienen capacidad de aprender a realizar tareas basadas en un entrenamiento inicial (Aprendizaje adaptativo). De esta forma, la máquina puede aprender a llevar
a cabo ciertas tareas mediante el entrenamiento con ejemplos ilustrativos, por lo que no es necesario elaborar modelos a priori. Las redes neuronales permiten organizar por sí mismas lo aprendido. Mientras que el aprendizaje es la modificación de cada elemento procesal, la auto organización consiste en la modificación de la red neuronal completa para llevar a cabo un objetivo específico. Además las redes neuronales tienen la capacidad de ser tolerantes a fallos. Fueron los primeros métodos computacionales con esta capacidad inherente. De este modo, si se produce un fallo en un número no muy grande de neuronas, aunque el comportamiento del sistema se ve influenciado, no sufre una caída repentina. Una de las prioridades principales de las redes neuronales es que son capaces de operar en tiempo real. Las redes neuronales trabajan mediante conexiones en paralelo, lo que permite grandes velocidades de transmisión y respuesta casi al instante. Por último, hay que destacar como ventaja la facilidad de inserción en la tecnología existente. De manera que, por ejemplo, resulta muy sencillo conseguir chips especializados que mejoren su capacidad.
CÓMO REALIZAR UN MAPA CONCEPTUAL Los mapas conceptuales contienen tres elementos fundamentales: concepto, proposición y palabras de enlace. Los conceptos son palabras o signos con los que se expresan regularidades; las proposiciones son dos o más términos conceptuales unidos por palabras de enlace para formar una unidad semántica; y las palabras de enlace, por tanto, sirven para relacionar los conceptos (Díaz, Fernández, 1997). Los Mapas Conceptuales están formados pornodos y líneas de unión entre los nodos. Los nodos, que representan conceptos o atributos específicos del tema desarrollado, se muestran enmarcados en círculos, rectángulos, etc., y se unen mediante trazos. Estas conexiones representan relaciones que unen a dichos conceptos y pueden (o no) llevar una leyenda que aclare el significado de dicha relación. Palabras de enlace tales como “de”, “donde”, “el”, “para”, “entonces”, “con”, etc., son utilizadas, tanto
como verbos y sustantivos, para construir las proposiciones que se leen entre los nodos. Los conceptos más abarcativos e inclusores deben ubicarse en la parte superior del gráfico, y a medida que se desciende verticalmente por el Mapa, se ubican los conceptos de categoría menor.