Contenido
El sector educativo a nivel mundial ha puesto en la mira a inteligencias artificiales como ChatGPT.
Especialistas analizan el riesgo que puede representar su utilización de forma incorrecta en la resolución de tareas y presentación de exámenes por parte de los estudiantes.
Los maestros se preguntan si deben prohibir o beneficiarse de la inteligencia artificial ChatGPT. Un sistema capaz de redactar textos en respuesta a preguntas simples que ya ha difundido de manera masiva en el mundo educativo.
En Australia, ocho universidades anunciaron que modificarán los exámenes y consideran que la utilización de la inteligencia artificial es una puerta abierta al camino de la trampa.
Para cerrar el paso a los estudiantes, este año sus pruebas serán “vigiladas” con “un recurso creciente al papel y al bolígrafo”, señaló la dirigente del “grupo de los ocho” Vicki Thomson, citada en el blog del diario The Australian.
Las escuelas públicas de Nueva York comenzaron a ver con sigilo el uso de esta inteligencia artificial y ya restringieron el acceso a ChatGPT en sus redes y terminales.
Una decisión tomada luego de que varios medios de prensa se refirieran a la utilización creciente del instrumento por estudiantes en el mundo entero, especialmente animados por los videos de TikTok.
Al respecto, la portavoz del departamento de educación de esta ciudad estadounidense refirió que el ChatGPT “no facilita desarrollar competencias de reflexión crítica y resolución de problemas, que son esenciales para el éxito escolar y a largo de la vida”, precisó.
También te puede interesar: OpenAI creadora de ChatGPT entraría a la venta de acciones
Descarga gratis el Observatorio Ecommerce 2021 Si deseas tener los datos más precisos del comercio electrónico y conocer las nuevas tendencias, descárgate gratuitamente el reporte oficial de la industria de Ecommerce en Perú https://bit.ly/3x0gQpk.
Fuente: RPP
Mantente al día con las noticias del ecosistema ecommerce siguiendo a EcommerceNews en Google News
Esta publicación fue modificada por última vez el enero 16, 2023 9:17 pm