Mi opinión: Cuando se puede legislar, habría que hacerlo sobre lo que realmente transforma a medio y largo plazo.
Si no, además de no transformar nada, se acaba perdiendo legitimidad a medio largo plazo
(13/14)
Posts by Edu Torres
Pero "parece que estamos haciendo algo".
Da legitimidad política a corto plazo, aunque no produzca cambios profundos. Es una patada al balón hacia adelante.
(12/14)
Prohibir redes a menores sin tocar todo esto es otra solución técnica (y poner puertas al campo, dicho sea de paso) para un problema estructural.
(11/14)
Con todo esto evitamos hablar del problema real: hemos dejado las redes sociales en manos de tecnofaraones.
¿Para cuándo redes sociales públicas?
De esto no habla nadie porque requiere invertir dinero y confrontar gente poderosa.
(10/14)
Mi opinión: Se podría pedir DNI de forma interna y mantener anonimato público.
Si hay delito, la plataforma tiene los datos que debe facilitar por orden judicial (como las operadoras de internet).
(9/14)
El debate sobre el anonimato tampoco es tan sencillo.
Es cierto que facilita acoso o desinformación, pero también permite denuncias públicas que de otro modo no serían posibles.
(8/14)
Si la preocupación es el debate democrático:
¿qué hacemos con televisiones tóxicas, desinformación sistémica y medios que viven del bulo permanente?
Ahí el debate ya no es técnico. Es político.
(7/14)
Plano 3: el problema de la desinformación (por ejemplo) pasa a ser solo de las redes sociales por arte de magia.
(6/14)
Plano 2: convertimos un fenómeno social general en un "riesgo juvenil", como si el problema con las redes no fuera también con adultos.
(Tenemos adultos consumiendo información más perdidos que la mayoría de adolescentes).
(5/14)
Cuando explicamos lo que pasa en clave de adicción o cerebro vulnerable, despolitizamos el problema.
De poder económico a química cerebral.
De estructura social a mal uso individual.
(4/14)
Captura de un artículo académico de Jesper Aagaard (2020) donde se critica el enfoque neurobiológico de la "adicción a la tecnología", señalando que explicar el uso de redes en términos de dopamina es limitado, incoherente y patologiza comportamientos cotidianos, desplazando un problema social hacia una interpretación individual y técnica.
Plano 1: un problema político y estructural se convierte en informático, técnico o neurofisiológico (la dopamina -además bastante controvertida-).
(3/14)
https://x.com/JCesarPL/status/2003052205436489774?s=20
No estamos ante un problema de menores ni de tecnología. Estamos ante un problema de poder, modelo económico y democracia.
Mientras no hablemos de eso, seguiremos poniendo parches técnicos a conflictos estructurales.
(14/14)
Ben d'acord! Formació i criteri pedagògic és el que fa de la tecnologia una aliada, i no un automatisme buit. La mala praxi general no hauria de desincentivar cap intent d’una pedagogia sòlida, col·lectiva i exploratòria, capaç d’aprendre dels errors i d'evitar caure en una "estupidesa artificial".
Un mal ús docent no hauria de portar-nos a renunciar a cap eina. Quan les eines formen part de la vida quotidiana de l’alumnat, l’escola no pot limitar-se a prescindir-ne: hauria d’ensenyar a usar-los amb criteri, sentit i responsabilitat pedagògica, diferenciant els usos socials dels educatius.
Entenc l’escepticisme veient-ne els usos. Escriure no és només fixar continguts, sinó aprendre a pensar. Si delegam sistemàticament l’escriptura a la IA, l’alumnat perd part del procés: provar, errar-se i construir sentit. El repte és decidir quan l'eina acompanya i quan substitueix l'aprenentatge.
El risc no és que la IA pensi per nosaltres, sinó que normalitzi una pràctica educativa sense conflicte cognitiu ni reflexió pedagògica, un sistema educatiu on el judici i el sentit es facin prescindibles. Ben dirigida, la IA pot fer el contrari: reobrir espais de pensament, metacognició i sentit.
Sí, però malgrat els interessos comercials, l'incentiu per aprendre per als docents no hauria de ser fer-ho tot nosaltres, sinó pensar críticament què i com ensenyam; l’aprenentatge real ve de la comprensió i la pràctica. La IA no hauria de posar en perill competències ni professionalitat.
La IA pot tenir bons usos i ens pot ajudar. Però la realitat és que a molta la gent li està servint per tenir a una falsa sensació de competència i per deixar de pensar. Hi ha docents produint propostes d'aula tòpiques, planes, sense ànima i sense propòsit, sense ser-ne gens conscients. 🙁
#eduCat
(7) Sense aquest marc pedagògic, qualsevol tecnologia —IA inclosa— acaba buida, plana i sense ànima. Cap eina tecnològica a l'abast genera ni obstaculitza per se pensament crític... Per què limitar-ne el bon ús potencial, idò?
(6) Potser el debat no hauria de ser si la IA "fa pensar menys”, sinó com formar docents perquè pensin pedagògicament abans, durant i després d’utilitzar-la.
(5) Però en mans d’un docent crític, la IA pot alliberar temps per allò que és realment insubstituïble: conèixer l’alumnat, dissenyar aprenentatges significatius i avaluar amb sentit.
(4) La tecnologia no és neutral (Adell): amplifica les pràctiques que ja tenim. Si el docent no reflexiona sobre el perquè i el per a qui, la IA només accelera la mediocritat pedagògica...
(3) Si la IA s’usa per substituir aquest judici professional, efectivament genera una falsa sensació de competència. Però això ja passava abans (i ara!) amb llibres de text o programacions copiades...
(2) La competència docent no és produir materials (Perrenoud) sinó prendre decisions didàctiques informades, contextualitzades i amb sentit.
Compartesc la preocupació, però crec que el problema no és tant la IA com la mirada pedagògica amb què s'utilitza...🧵(1-7)
OPINIÓN | ¿Formar para pensar u obedecer? Una reflexión sobre la docencia y la evaluación que dejan huella
Després d'uns quants dies d'anar-hi abocant text, avui li he posat una imatge i he renunciat a intentar explicar-me millor. Aquí teniu, en primícia, una nova xapa interminable de les que em caracteritzen, però aquesta vegada sense bibliografia ni una sola cita a part d'una cançó molt rància.
#eduCat