DISEÑO DE SOFTWARE INFORMATICO

Julio Cabero Almenara (cood)

Universidad de Sevilla

cabero@cica.es

Bordón, 44, 4, 383-391 (1992)

ISSN: 0210-5934

 

1.- Introducción.

Uno de los grandes problemas para el uso e introducción de la informática en el terreno educativo radica en la existencia y calidad del software. Percival y Ellington (1984, 143-148) al analizar algunos de los factores que afectan al uso educativo de los ordenadores, los resumen en: técnicos, actitudinal, disponibilidad del software, y otro tipo de factores educativos. En nuestro contexto, Escudero y otros (1989, 197-198), en el apartado de las conclusiones del Informe de Progreso del Proyecto Atenea, a la hora de referirse al software disponible y las guías que acompañan al mismo, llaman la atención sobre cómo el software utilizado condiciona el tipo de contenidos curriculares que se están enseñando, y lo que a nosotros aquí más nos interesa, sobre la escasa diversidad de software existente. Nosotros en un trabajo (Cabero y otros, 1992) donde estudiamos como está la introduciéndose el ordenador en los centros, cuando le preguntamos a los profesores que nos indicaran las sugerencias que consideraban debían adoptarse para mejorar la utilización de la informática en su práctica docente, señalaron algunas posibilidades, de entre las cuales por lo que a nosotros aquí nos incumbe resaltamos: dotación de más medios, no sólo de hardware, sino de software y adaptado a las necesidades de los profesores, docentes y de administración.

Desde el principio debe de quedar claro que el concepto de calidad de software educativo es complejo y extremadamente difícil de precisar, ya que es el resultado de la interacción de una serie de factores: el contenido, el profesor, el curriculum, la tecnología..., que determinarán los resultados que con el mismo se obtenga.

Un problema tradicional en los medios de enseñanza, consiste en determinar de qué manera pueden diseñarse para que cumplan de manera más eficaz la fusión para la que son elaborados; es decir, para que la comunicación de sus mensajes sea más eficaz y la interacción que establezca con el usuario sea lo más útil posible. En definitiva para que facilite el aprendizaje y recuerdo de la información por ellos transmitidos y propicie entornos de aprendizaje más variados.

Es necesario dejar claro desde el primer momento que, al igual que ocurre con otros medios, los principios de diseño que se utilizarán varían según la función que se le asigne y el papel que desempeñe en el proceso de enseñanza-aprendizaje: transmisión de información, evaluación de los estudiantes, presentación de ejemplos, motivación, simulación de fenómenos...

En nuestro caso, las funciones y tipologías pueden ser diversas: Enseñanza Asistida por Ordenador, libro de texto interactivo, dibujo y práctica, sistemas tutoriales inteligentes, programas de simulación, programas tutoriales, programas basados en la inteligencia artificial, solución de problemas, bases de datos, juegos educativos, materiales de ejercitación... Gros (1987, 93-95), en función de los modelos de transmisión de la información, clasifica el software informático educativo, en los siguientes grupos: tutorial (su objetivo es el de instruir al educando en una determinada área de conocimiento mediante la transmisión de las informaciones pertinentes para el aprendizaje de una área temática

concreta), de práctica y ejercitación, de demostración (tienen como objetivo mostrar conceptos, técnicas, contenidos, etc. de una determinada área de conocimiento), de simulación (tiene la finalidad de la representación de modelos teóricos de funcionamiento de un determinado sistema) y lúdico (utiliza el carácter lúdico para la transmisión de conocimientos, refuerzo de destrezas, desarrollo de habilidades o simplemente como un elemento motivacional para el alumno.

La evaluación del software informático educativo puede ser realizada desde diversas perspectivas y por diversas personas o especialistas. En este último aspecto, Olivares y otros (1990) llaman la atención sobre cómo éstos pueden ser de diversa índole: especialistas en comunicación informática (programadores), especialistas en comunicación audiovisual, evaluadores generales externos, metodólogos, profesores, alumnos...

Como es lógico suponer, cada uno de estos grupos tienen preocupaciones desiguales, que le llevan a formularse diferentes preguntas ante el mismo. Así el programador informático, tenderá a evaluarlo con cuestiones del tipo: ¿es el lenguaje y las técnicas de programación correcta?, ¿son las técnicas de programación utilizadas de forma correcta?...; por su parte el especialista en comunicación audiovisual se centrará en aspectos como: ¿se usa la tecnología correcta y adecuadamente?, ¿es original la presentación comunicativa?...; el metodólogo en: ¿la aproximación metodológica es actualizada y significativa?, ¿es el contenido del software exacto?. ¿es adecuado el software para el nivel ofertado?...; el profesor tenderá a formular preguntas en torno a: ¿qué resultados se obtienen?, ¿es el contenido del software exacto?, ¿la interacción que ofrece es la más adecuada para los estudiantes?...; y para los estudiantes: ¿qué tengo que hacer para aprender con el software?, ¿qué sentimientos tengo cuando los uso?...

Truett realizó en 1984, una investigación destinada a conocer los procedimientos más utilizados por las empresas comerciales para la evaluación del software informático que producían, encontrando que básicamente se utilizaban dos procedimientos: valoraciones por parte de los profesores y estudios experimentales. Adelantemos ya, que estas dos estrategias serán posteriormente utilizadas por nosotros en nuestra investigación.

Para la ayuda a estas evaluaciones se han elaborado distintas escalas (Preece y Jones, 1985; Bork, 1986; Wellington, 1985; Gallán y Segara, 1985; Garrido, 1991; Murrilo y Fernádez, 1992; Requena y Romero, 1983) que por lo general identifican algunas de las siguientes grandes dimensiones:

- Características técnicas de presentación y realización del programa.

- Material de apoyo para los alumnos y profesor.

- Dimensión didáctica (objetivos, contenidos, actividades...).

- Adecuación del programa a las características de los receptores.

- Manejabilidad y accesibilidad del programa.

- Interactividad del programa.

- Flexibilidad del programa.

- Facilidad de manejo en función de las características de los receptores.

Dimensiones que a grandes rasgos podrían englobarse en tres grandes bloques: referencias a la organización técnica-instrumental de la información, relacionadas con la organización semántica-conceptual de los contenidos e información transmitida, y de análisis de los materiales de apoyo o guía del software informático.

A partir de una serie de investigaciones (Smith y Keep, 1986; CFPJ, 1987; Hativa y Reingold, 1987; Johnston, 1987b; England, 1988; Wishart y Cartes, 1988; Wishart, 1989; Underwood y Underwood, 1990; Aspillaga, 1991) se han identificado algunos elementos y consideraciones para diseñarlos desde el punto de vista técnico-instrumental, teórico-conceptual y de organización conceptual de la información, de los cuales entresacamos los siguientes:

- El color se considera como una variable importante; si bien, su uso no tiene por qué incrementar el rendimiento en los estudiantes.

- El uso cordial se considera como una variable esencial por parte de los profesores para que los alumnos interaccionen de la forma más efectiva con el programa.

- Existe una preferencia en los alumnos porque el texto de las pantallas se escriba en mayúsculas. Aunque en este caso existe opiniones contradictorias, que indican la mejor lecturabilidad de las letras minúsculas.

- Información al usuario de los objetivos que se pretenden alcanzar con el programa.

- La estructura externa de presentación de la información, facilita no sólo la percepción de lo presentado, sino también el almacenamiento de la información en la memoria.

- Yuxtaposición de dos o más sistemas simbólicos.

- La pantalla más interesante aquella que se encuentra dividida en dos partes; en la superior se ubica el título de programa o del apartado, y en la inferior el contenido. Cumpliendo la parte superior de la pantalla funciones de ayuda y seguimiento de la información trasmitida.

- Las llamadas de atención a pasar de pantalla, instrucciones para realizar los ejercicios, ...., se prefiere que se encuentren ubicadas en la parte inferior de la pantalla.

- Utilización de diversas técnicas (subrayados, enmarcados, parpadeos...) para llamar la atención sobre determinadas partes del programa.

- La utilización de separación de espacio entre líneas y entre recuadros de pantallas facilita la discriminación de la información.

- Requerimiento de entrada y avance del programa, lo más elemental posible.

- Utilización de animación de las pantallas o subparcelas de la pantallas.

- Feed-back positivo en las relaciones con el usuario.

- Diversificación de pantallas para especificar diferentes informaciones sobre un mismo tema o contenido.

- Explotaciones, siempre que lo requiera el tratamiento de la información, de los gráficos y las posibilidades de animación que el ordenador permite.

- Variedad en la presentación de las diferentes pantallas.

- Y enfatizar la retención y la transferencia de la información mediante resúmenes y sumarios.

 

2.- La investigación.

Como ya señalamos la forma en que se diseñe el software informático dependerá del tipo y función que se le asigne. En la investigación que presentaremos a continuación nos hemos movido dentro de la concepción del ordenador como medio didáctico que transmite una información, en cierta medida en la concepción del ordenador como libro interactivo.

Con el objeto de conocer qué variables pueden ser significativas de utilizar para el recuerdo de la información presentada en programas informáticos, hemos producido sobre el tema de los "números enteros", dos programas. Estos transmiten contenidos equivalentes, pero, como posteriormente veremos, incluyen elementos técnicos y organizativos del contenido, distintos en su diseño. Programas, que a partir de este momento, los identificaremos como versión "A" y "B".

Dos son las preguntas generales sobre las que nos interrogaremos en nuestro estudio:

1.- Qué forma específica de estructurar y de diseñar el software informático con una finalidad informativa, tiene mayor influencia significativa en el rendimiento a corto plazo alcanzado por los estudiantes.

2.- Qué forma de diseñar los programas informáticos con una finalidad informativa, es percibida como más útil, beneficiosa y positiva de cara a la adquisición de información por los profesores.

En ambas versiones el software fue realizado con los programas PC-STORYBOARD versión 1.11, y TURBO-BASIC versión 1.0.

La estructura general del programa en su versión "A" fue: pretest-carátula-objetivos-organizador previo-bloque informativo-sumario-postest. Y en su versión "B": pretest-carátula-bloque informativo-postest. Como puede observarse una de las diferencias entre ambas versiones radica en que la versión "A" cuenta con tres elementos semánticos-didácticos no presentes en la versión "B".

Estos elementos han demostrado su significación para la adquisición y recuerdo de la información, cuando han sido utilizados en el diseño de otros medios como, los impresos y audiovisuales, y en una serie de estudios experimentales (Escudero, 1979; Hartley, 1978; Hartley y Burnhill, 1978; Hartley y otros, 1980; Spencer, 1987; Clements y Gullo, 1984; Birkimire, 1985; Cabero, 1989; Berry y Graham, 1990).

Como hemos dicho los contenidos presentados en ambos programas eran los mismos, siguiendo en su presentación este orden: suma gráfica de números enteros, suma de números enteros, propiedades de la suma de números enteros, elemento opuesto y elemento neutro.

No era nuestra intención realizar dos versiones claramente diferenciadas de software informático, y que pudieran entenderse como una versión "buena" y otra "mala" hablando coloquialmente. Por el contrario, se trata de realizar dos versiones diferenciadas, por la movilización en grado de determinados elementos sintácticos (número de pantallas, pantallas dobles, aparición progresiva de la información en la pantalla, utilización de mayúsculas...) y por la presencia o ausencia de determinados elementos semánticos-conceptuales (organizador previo, sumario, y formulación de objetivos). Y como posteriormente presentaremos, con ambas versiones del programa los alumnos aprendía y eran percibidas como válidas para la interacción del alumno con el ordenador.

Los elementos utilizados para diferenciar los programas, en su versión "A" y "B", han sido:

- Organizadores previos (sólo en la versión "A").

- Formulación de objetivos (sólo en la versión "A").

- Sumario (sólo en la versión "A").

- Información de seguimiento en la pantalla de la subparte del programa (sólo en la versión "A").

- Utilización de mayúsculas y minúsculas (presentes en la versión "A" y "B", pero mayormente utilizados en la versión "A").

- Ejercicios de prácticas para los alumnos (sólo en la versión "A").

- División de la pantalla (presentes en la versión "A" y "B", pero mayormente utilizados en la versión "A").

- Aparición progresiva de la información en la pantalla (presentes en la versión "A" y "B", pero mayormente utilizados en la versión "A").

- Animación (presentes en la versión "A" y "B", pero mayormente utilizados en la versión "A").

- Redundancia de ejemplos (presentes en la versión "A" y "B", pero mayormente utilizados en la versión "A").

Siendo en aquellos elementos comunes, es decir, sin considerar la parte referida a los objetivos, organizador previo y sumarios, su presencia los siguientes:

Versión A.-

- Número de pantallas: 73.

- Número de pantallas dobles: 36.

- Parpadeo y subrayados: 11.

- Redundancia de ejemplos: 5.

Versión B.

- Número de pantallas: 49.

- Número de pantallas dobles: 21.

- Parpadeo y subrayados: 5.

Otro elemento utilizado para diferenciar las versiones ha sido el que en la versión "A", la información suele aparecer progresivamente en la pantalla; mientras en la versión "B", este uso de animación fue utilizado ocasionalmente.

2.1.- Estrategias de investigación.

Las estrategias seguidas en la investigación para la evaluación del software producido y diseñado han sido: estudio experimental de sus posibilidades para el recuerdo de información a corto plazo, y su evaluación por profesores de diferentes niveles educativos y expertos en informática.

Respecto a la primera, dos son las preguntas que formulamos: si se aprendía con cada una de las versiones, y con cuál de las dos los alumnos podrían aprender más. Queremos señalar que en la presente investigación asociaremos el término aprendizaje con el de recuerdo de la información.

Los alumnos que participaron en el estudio eran de séptimo de EGB del CP Joaquín Turina de Sevilla capital y el número que realizaron la parte experimental, después de anular aquellos que no habían desarrollado la prueba con interés, fue de 109, 43 interaccionaron con la forma "A" y 66 con la forma "B". El motivo de ser superior el número de sujetos de la forma "A" se debe exclusivamente a razones técnicas, ya que en un número de disquetes se estropearon los archivos de almacenaje de información del pretest y postest.

Las puntuaciones en el pretest y postest, obtenidas por los estudiantes, en la versión "A" y "B", fueron las siguientes:

 

VERSIÓN "A"

Variable Número Standard Standard

sujetos Media Desviation Error

PRET 43 6.1047 1.644 .251

POST 43 7.9209 1.860 .284

VERSIÓN "B"

Variable Número Standard Standard

sujetos Media Desviation Error

PRET 66 5.9636 1.716 .211

POST 66 7.0242 1.876 .231

La primera hipótesis que nos formulamos se refiere a si los alumnos habían adquirido información tras la exposición al programa de los "números enteros". O dicho de otra forma, si existía diferencia significativa entre las puntuaciones del "pretest" y "postest". Formulándose para ello las siguientes hipótesis:

H0: No existen diferencias significativas en cuanto a la adquisición de información a corto plazo tras la interacción con el programa.

H1: Existen diferencias significativas en cuanto a la adquisición de información a corto plazo, tras la interacción con el programa.

Para el contraste de estas hipótesis aplicamos el test estadístico "t de Student" para muestras apareadas. Obteniendo tras su aplicación, un valor de -6.47 en la versión "A" y de -5.00 en la versión B, con 42 y 65 grados de libertad respectivamente. Valores que nos permiten rechazar la hipótesis de no diferencia entre las puntuaciones del pretest y postest, tanto para el contraste realizado con la versión "A", como con la versión "B". Con un riesgo alfa de equivocarnos, en ambos casos, de 0.001 en ambos casos. En consecuencia podemos señalar que los alumnos habían adquirido información tras la interacción con los programas, tanto en su versión "A" como en la "B". Es decir, los alumnos habían aprendido los contenidos por ambas versiones de software.

La segunda hipótesis formulada iba destinada a analizar qué tipo de versión facilitaba más la adquisición y el recuerdo de información a corto plazo. En este caso las hipótesis que nos planteamos los formulamos en los siguientes términos:

H0: No existen diferencias significativas en la adquisición de información a corto plazo, entre las versiones "A" y "B", del programa "números enteros".

H1: Existen diferencias significativas en la adquisición de información a corto plazo, entre las versiones "A" y "B", del programa "números enteros".

En este caso el test estadístico aplicado fue el ANCOVA, tomando como covariable las puntuaciones alcanzadas por los alumnos en el pretest, obteniéndose un valor "f" de 6.643. Valor que confirma la significación de la forma de diseñar el programa en el rendimiento a corto plazo obtenido por los alumnos. Rechazando en consecuencia al nivel de significación alfa igual a 0.01 la H0 formulada, referida a la no existencia de diferencias significativas en la adquisición de información a corto plazo, entre las versiones "A" y "B", y aceptando por tanto la alternativa.

Por otra parte, las medias obtenidas con la versión "A" (7.9209) y "B" (7.0242), nos indican que los alumnos que interaccionaron con la versión "A", obtuvieron resultados significativamente superiores.

2.2.- Evaluación de software por profesores y profesionales de la informática.

Para la evaluación de las dos versiones producidas, elaboramos un cuestionario, que fue distribuido a profesores de diferentes niveles educativos: EGB, EE.MM. y Universidad. Y que fue también cumplimentado por profesionales de la informática, y seminarios permanentes de profesores en torno a la informática, responsables de informática de los CEPs. En concreto se cumplimentaron un total de 120 cuestionarios de evaluación para la versión "A" y similares para la "B".

Señalar que no ha sido nuestra pretensión elaborar un cuestionario definitivo de "Evaluación de Software Informático Educativo"; hemos pretendido exclusivamente recoger información sobre una serie de dimensiones que nos preocupaban, en concreto las consideradas como más significativas en otros cuestionarios y escalas de evaluación de software informático: contenidos, aspecto técnico del programa, motivación para el alumno, valoración didáctica general del programa, claridad del programa, duración del programa, facilidad de manejo, adecuación a los receptores y objetivos. Las preguntas que formaban cada una de estas dimensiones eran valoradas de 1 a 5, de acuerdo con la siguiente valoración: 1=nada adecuado-nada, 2=poco adecuado-poco, 3=adecuado-regular, 4=Bastante adecuado-bastante, y 5=muy adecuado-mucho.

En el cuadro que presentamos a continuación, se refleja las preguntas formuladas, el valor medio alcanzado en cada pregunta para la versión "A" y "B" y la diferencia entre ambas versiones.

ITEM A B DIFE-RENCIA
El nivel de actualización de los contenidos presentados los calificaría de: 3.748 3.500 +.248
En general la claridad de los textos expuestos la calificaría de: 3.850 3.237 +.613
Las actividades de evaluación se relacionan con los contenidos presentados en el programa. 4.081 3.706 +.375
La calidad de los gráficos presen-tados la puntuaría de: 4.125 3.447 +.678
¿Es claro el programa? 3.949 3.405 +.544
¿Es apropiado el programa en cuanto al contenido para los alumnos a los que va destinado? 3.714 3.406 +.308
La presentación del programa la calificarías de: 3.974 3.243 +.731
La claridad de las explicaciones las puntuaría de: 3.923 3.324 +.599
Los contenidos están relacionados con los objetivos que se persiguen: 4.143 3.625 +.516
La secuenciación de la información se presenta en orden lógico. 4.320 3.684 +.641
¿Es apropiado el programa en cuanto al vocabulario para los alumnos a los que va destinado? 3.703 3.286 +.417
¿Es apropiado el programa en cuanto el nivel para los alumnos a los que va destinado? 3.685 3.152 +.533
La estructuración y secuenciación de la información es adecuada a la edad y características de los futuros estudiantes receptores del programa. 3.889 3.382 +.507
Especifica los objetivos que se esperan que alcancen los estudiantes. 3.816 3.111 +.705
Se adapta el programa al curriculum de los alumnos. 4.029 3.625 +.404
¿Consideras que con el programa los alumnos pueden aprender? 3.650 3.237 +.413
Posee pantallas suficientes de ayuda 3.257 2.571 +.686
La calidad general del programa, desde un punto de vista didáctico la calificaría de: 3.575 2.789 +1.079
La variedad de las presentaciones: 3.825 2.763 +1.06
La duración del programa la consideras: 3.179 3.000 +.179
La facilidad de manejo del programa, en función de los futuros usuarios la puntuarías de: 4.050 4.079 -.029
El interés que puede despertar el programa para los estudiantes es 3.600 3.079 +.521
La calidad de las animaciones la puntuaría de: 3.850 2.974 +.896
La calidad general del programa, desde un punto de vista técnico la calificaría de: 3.974 3.639 +.335
El nivel de claridad de la información presentada lo puntuarías de: 3.958 3.297 +.661

Nota: El signo "+" hace referencia a las diferencias encontradas a favor de la versión "A" y el signo "-", a favor de la "B".

La media obtenida con el cuestionario completo en la forma "A" fue de 3.86 con una desviación típica de 1.19, y en la versión "B" de 3.30, con una desviación de 1.09.

La comparación de estas medias nos permite señalar, que por lo general los evaluadores perciben a la versión "A" como más válida que la "B". En concreto, la media de las contestaciones en la forma "A", se situaría entre el intervalo de contestación, "Bastante adecuado-Bastante ----- Adecuado-Regular", y la de la forma "B" en: "Adecuado-Regular ----- Poco adecuado-Poco".

Vamos a llamar la atención respecto al ítem referido a si se piensa que con ambos programas los alumnos podrían aprender los contenidos de la suma de números enteros y sus propiedades. Así, las medias obtenidas, 3.650 para la forma A y 3.237 para la B, son bastantes similares y superiores a la opción de respuesta "Adecuado-Regular", lo que indica que ambos programas son percibidos como útiles para aprender por los evaluadores, tal como también obtuvimos en la parte experimental.

A estos comentarios realizados también tenemos que añadirle la percepción similar que se tiene en ambas versiones de la actualización de los contenidos, con unas medias de 3.748 en la versión "A" y 3.500 en la "B".

Las diferencias más elevadas se dan en los ítems "La variedad de las presentaciones" y 8 "La calidad de las animaciones". En el primer caso, las medias que se obtienen para las formas "A" y "B", son: 3.825 y 2.763, respectivamente. Y en el segundo, 3.850 para la "A" y 2.974 para la "B". Si a las contestaciones ofrecidas en estos ítems, le añadimos las obtenidas en el referido a "La calidad de los gráficos presentados la puntuaría de:" y en el de "La presentación del programa la calificarías de:", podemos darnos cuenta como los evaluadores han puntuado en estas dimensiones técnicas más bajo la forma "B" que la "A".

En dos ítems prácticamente no se han encontrado diferencias, en el referido a la duración del programa (3.179 y 3.000), y en el de su facilidad de manejo (4.050 y 4.079).

Como ya hemos señalado la versión "A" es mejor puntuada por los evaluadores; ahora bien, nos gustaría realizar una llamada de atención respecto a las diferencias encontradas, cercanas a 0.7, en los ítems "El nivel de claridad de la información presentada la puntuarías de:" y "La calidad general del programa, desde un punto de vista didáctico la calificarías de:", y "La claridad de las explicaciones las puntuarías de:". Por la referencia directa que estos ítems tienen al posible valor didáctico-educativo de las versiones elaboradas.

Antes de finalizar nuestro análisis, tenemos que decir, por lo que ello va implicar para las conclusiones que posteriormente obtendremos de nuestra investigación, que las puntuaciones más bajas otorgadas a los ítems, tanto en su versión "A" como "B", fueron por lo general realizadas por profesionales del medio informático, o por profesores que ocupaban algún puesto de responsabilidad en los Departamentos de Informática de los CEPs.

Ello nos lleva a pensar sobre la posible formación en software informático que el profesorado consultado pueda tener, y que en consecuencia pueda tender a una sobrevaloración de sus posibilidades técnicas y didácticas. Sin embargo, tampoco debemos olvidar que claramente diferenciaron las dos versiones diseñadas.

3.- CONCLUSIONES.

Los resultados obtenidos en la investigación, tanto por el rendimiento alcanzado por los alumnos como por la evaluación realizada por los profesores y expertos en informática, sugieren directamente una forma de diseñar el software informático educativo, dentro de la concepción del ordenador como libro interactivo. Forma que vendría determinada por la presencia de organizadores previos, sumarios, división de pantallas, mayor utilización de la animación, aparición progresiva de la información, utilización de parpadeo, ejercicios prácticos realizados por los alumnos..., en definitiva la que hemos denominado como versión "A".

Ahora bien, una serie de hechos nos llevan a proponer asumir los resultados obtenidos con cautela. En primer lugar, si bien es cierto que los alumnos recordaron más información con la versión "A" del programa, el hecho de que los alumnos no estuvieran acostumbrado a trabajar con el medio informático, a este nivel, es decir el factor novedad, bien podría influir de manera significativamente positiva sobre los resultados, aunque este factor puede estar experimentalmente bajo control al ser común a las dos formas expuestas del programa, no lo está psicológicamente y actitudinalmente por lo que puede condicionar los resultados. Por otra parte, habría que producir siguiendo la misma línea un conjunto de programas, y en la interacción con los alumnos conocer si el tipo de diseño pudiera saturar, y por tanto romper el posible impacto creado con nuestra investigación.

Tampoco debemos olvidar los comentarios realizados anteriormente respecto a los evaluadores del software. Los resultados obtenidos en la evaluación del software por profesores y expertos informáticos apoyan nuestros planteamientos de utilizar determinados elementos sintácticos-instrumentales y semánticos-conceptuales con el objeto de alcanzar un diseño más eficaz. Sin embargo, estos resultados deben ser adoptados con cautela por los motivos que ya expusimos anteriormente.

De todas formas, no podemos obviar que los resultados obtenidos manifiestan claramente la forma "A" como de mayor rendimiento que la forma "B", tal cómo cabía esperar.

Por último, señalar que creemos necesario y conveniente para un mayor abundamiento y profundización de las conclusiones, una replicación de la investigación realizada en esta línea y también con software de otros contenidos diferentes al utilizado por nosotros, y a ser posible con alumnos que tengan experiencia en la interacción con los ordenadores y con conjuntos de programas, situación ésta que no es, por el momento, demasiado frecuente en los niveles educativos en que nos hemos desenvuelto durante esta investigación.

 

 

REFERENCIAS BIBLIOGRAFICA

 

ASPILLAGA, M. (1991): "Para un diseño efectivo de presentación de la información en la computadora", Revista de Tecnología Educativa, XI, 4, 307-323.

BERRY, J.S. y GRAHAMM, E. (1990): "Opinion: video design in the light of recent research", ETTI, 27, 4, 398-405.

BIRKIMIRE, D.P. (1985): "Text processing: the influence of text structure, background. Knowledge and purpose", Reading Research Quarterly, 20, 3, 314-326.

BORK, A. (1986): El ordenador en la enseñanza. Análisis y perspectivas de futuro, Barcelona, Gustavo Gili.

CABERO, J. (1989): Tecnología Educativa: utilización didáctica del vídeo, Barcelona, PPU.

CABERO, J. y otros (1992): Investigaciones sobre la informática en el centro, Barcelona, PPU.

CFPJ (1987): Legibilidad y escritura telemática, en RICHAUDEAU, F. (Dir.): La legibilidad: investigaciones actuales, Madrid, Fundación Germán Sánchez Ruiperez, 55-80.

CLEMENTS, D.H. y GULLO, D.F. (1984): "Effects of computer programming on young children's cognition", Journal of Educational Technology, 76, 151-158.

ENGLAND, E. (1988): "Case study: iterative screen design-errors as the basic of learning", Educational & Training Technology International, 26, 2, 149-155.

ESCUDERO, J.M. y otros (1989): Informe de progreso. Fase exploratoria (Proyecto Atenea), Madrid, MEC.

ESCUDERO, J.M. (1979): Tecnología Educativa: diseño de material escrito para la enseñanza de conceptos, Valencia, Nau Llibres.

GARRIDO, J.M. (1991): "Diseño y creación de software educativo", Infodidac, 14-15, 31-34.

GAGNE, R. y otros (1984): Planning and authoring computer-assisted instruction lessons, en WALKER, D.F. y HESS, R.D. (comp): Instructional software. Principles and perspectives for design and use, Belmant, Wadsworth Publishing Company, 57-68.

GAYAN, J. y SEGARRA, D. (1985): Propuesta de evaluación de programas de enseñanza asistida por ordenador, en PFEIFFER, A. y GALVAN, J. (ed): Informática y escuela, Madrid, FUNDESCO, 379-382.

GROS, B. (1987): Aprender mediante el ordenador, Barcelona, PPU.

HARTLEY, J. (1978): Designing instructional text, Londres, Kogan Page.

HARTLEY, J. y BURNHILL, P. (1978): Fifty guidelines for improving instructional text, en HARTLEY, J. y DAVIES, I.K.: Contributions to an educational technology, London, Kogan Page, vol. 2, 182-194.

HARTLEY, J. y otros (1980): "Some observations on producing and measuring readable writing", Programmed Learning and educational technology, 17, 3, 164-174.

HATIVA, W. y REINGOLD, A. (1987): "Effects of audiovisual stimuli on learning through microcomputer-based class presentation", Instructional Science, 16, 287-306.

HUSIC, F.T. y otros (1989): "Adapting instruction to the cognitive demands of learning to program", Journal of Educational Psychology, 81, 4, 570-583.

JOHNSTON, V.M. (1987b): "Attitudes towards microcomputers in learning: 2. Teachers and software for language development", Educational Research, 29, 2, 137-145.

LIEBERMAN, P. (1985): El libro de Apple II c. Programación, uso y aplicaciones, Madrid, Anaya Multimedia.

LINN, M.C. (1985): "The cognitive consequences of programming instruction in classrooms", Educational Researcher, 14, 14-29.

MANDINACH, E. y LINN, M. (1986): "The cognitive effects of computer learning environments", Journal Educational Computing Research, 2 ,4, 411-427.

MURRILLO, F.J. y FERNANDEZ, M.J. (1992): "Software educativo. Algunos criterios para su evaluación", Infodidac, 18, 8-12.

OLIVARES, M.A. y otros (1990): A proposal to answer the necessity to evaluate computer software, en McDOUGALL, A. y DOWLING, G. (editors): Computers in Education, Elsevier Science Pubishers, North-Holland, 171-174.

PERCIVAL, F. y ELLINGTON, H. (1984): A handbook of educational technology, Londres, Kogan Page.

PREECE, J. y JONES, A. (1985). "Traigning teachers to select educational software: results of a formative evaluation of an Open University pack", British Journal of Educational Technology, 16, 1, 9-20.

REQUENA, A. y ROMERO, F. (1983): "¿Cómo seleccionar el software educativo?", El ordenador personal, 13, 47-51.

SMITH, D. y KEEP, R. (1986): "Children's opinions of educational software", Educational Research, 28 ,2, 83-88.

SPENCER, M. (1987): La legibilidad en lectura de investigación, en RICHAUDEAU, F. (dir): La legibilidad. Investigaciones actuales, Madrid, Fundación Germán Sánchez Ruiperez, 41-54.

TRUETT, A. (1984): "Field testing educational software: are publishers making the effort?", Educational Technology, mayo, 7-12.

UNDERWOOD, J.D. & UNDERWOOD, G. (1990): Computers and Learning, Oxford, Basil Blackwell.

WELLINGTON, J.J. (1985): Children, computers and the curriculum, Cambridge, Harper & Row, Publishers.

WISHART, J. y CARTER, D (1988): "Variations in user involvement with educational software", Computers in Education, 12, 365-379.

WISHART, J. (1989): Cognitive factors related to the user involvement with computers and their effects upon learning an educational computer game, Paper read at the Cal'89, Conference University of Surrey.

RESUMEN:

Asociado al uso de los ordenadores como herramientas didácticas, se encuentra la problemática del diseño y evaluación de software informático educativo-didáctico. En el artículo, se presentan los resultados obtenidos en el recuerdo de la información a corto plazo, con programas que transmitiendo contenidos equivalentes, son producidos de manera diferente en función de la movilización en grado, y en presencia y ausencia, de determinados elementos técnicos, de presentación y conceptuales. También se presenta la evaluación que profesores y profesionales del software informático realizan de las diferentes versiones y el instrumento creado al respecto.

 

ABSTRACT

In relation lo the use of computers as teaching tools, the exists the problem of educational-didactc computer software. This article deals with the results obtained from short term information recall, with programmes transmitting equivalent content, are produced differently depending on grade mobilization, and with or without specific techical presentation or conceptual elements if also deals with evaluation made by professors and computer software professionals of the different versions and the instrument created for such.