Un revolucionario sistema capaz de leer la lengua de señas chilena y traducirla a texto en tiempo real está siendo desarrollado por tres estudiantes de Ingeniería Civil Informática de la Universidad de Concepción (UdeC). El proyecto, que destaca por su enfoque innovador y su potencial para la inclusión, nació como un trabajo final para la asignatura de Inteligencia Artificial y hoy proyecta un amplio horizonte de aplicaciones. Gabriela Muñoz Castillo, Diego Alday Cortés y Diego San Martín Albornoz son el equipo detrás de esta tecnología que, aseguran, tiene amplio potencial de escalamiento y por eso la siguen perfeccionando a pesar de haber terminado la evaluación formativa. La propuesta permite que, a través de la cámara del computador, un complejo sistema de algoritmos sea capaz de identificar el signo que realiza la mano y este devuelta su equivalencia en formato de texto en la pantalla. «Esto funciona mediante una cámara (…); una persona muestra la lengua de señas y el computador le traduce en texto lo que esa persona está haciendo. Nuestra gran diferencia es que no usamos imágenes, usamos texto. La cámara nos pone puntitos en las manos y en la cara y eso lo transforma en coordenadas que se transforman a texto. Una imagen gasta mucha más memoria que un texto en el computador, entonces, toda esta base de datos que hicimos (…) gasta una cantidad de espacio súper pequeña», explicó Gabriela. Reconocen potencial para la lengua de señas A pesar de haber finalizado el curso que originó la propuesta, Alday aseguró que «vemos que esta tecnología tiene potencial para distintas aplicaciones. Entonces hemos estado debatiendo, tirando ideas de cómo podría ser el resultado final. Entre aplicaciones que sirvan como un traductor similar a los de idiomas, traductores en tiempo real para videollamadas, entre otras», dijo. Al momento de esta entrevista, el equipo había recibido una invitación para formar parte de Gearbox, la preincubadora de la Facultad de Ingeniería que apoya ideas innovadoras para que se proyecten de mejor manera en el mercado. «Estas son estas las instancias que uno tiene que aprovechar y las que agradecemos porque de esta manera nos hemos dado cuenta del potencial que puede tener nuestro trabajo. Entonces, esto también nos motiva mucho más a continuar con el proyecto, a mejorarlo, porque sabemos que hay un interés por parte de las personas», dijo Gabriela. En su fase actual, el traductor desarrollado por los estudiantes de la UdeC ya demuestra una importante capacidad de reconocimiento. El sistema puede identificar con precisión las 27 letras del abecedario del lenguaje de señas chileno, además de un conjunto de seis palabras y gestos básicos, como saludos y agradecimientos. La innovación más destacada del proyecto reside en su eficiencia. Toda la base de datos necesaria para estas traducciones ocupa un espacio de almacenamiento de apenas 10 megabytes (MB). Esto es posible porque, a diferencia de otros sistemas, esta tecnología no utiliza pesadas imágenes para el reconocimiento, sino que procesa los gestos como coordenadas de texto, un método que consume significativamente menos memoria y es clave en su funcionamiento. Ejercicio académico El académico responsable de la asignatura donde nació el proyecto de lengua de señas, Dr. Julio Godoy del Campo, explicó que la asignatura de Inteligencia Artificial que se dicta en el Departamento de Ingeniería Informática y Ciencias de la Computación, es de carácter introductorio a la disciplina. «Dado el amplio espectro de lo que podemos llamar IA, no es la intención del curso profundizar en cada una de las áreas de la Inteligencia Artificial. En lugar de esto, el curso busca introducir a los estudiantes al campo de la IA, presentar conceptos asociados, hitos de la IA y el impacto que han tenido y siguen teniendo en nuestro diario vivir, los distintos paradigmas que han predominando el desarrollo de la IA durante las últimas décadas, además de introducir algunas áreas de la IA que se profundizan en otros cursos», detalló. Respecto de la instrucción que facilitó la creación del proyecto del grupo de estudiantes, el académico puntualizó que «la premisa que les entrego a los estudiantes es: miren a su alrededor, piensen en los desafíos que tenemos como sociedad, escojan uno que les motive y pregúntense, ¿cómo podría la inteligencia artificial ayudar a resolver este desafío? Ese es el punto de partida. El curso les muestra manera amplia lo que es posible realizar con inteligencia artificial, y ellos profundizan en base al proyecto escogido». Por lo mismo, asegura que este tipo de ejercicios permiten encontrar nuevas formas de utilizar la Inteligencia Artificial para que esté al servicio de las personas. «La IA tiene un potencial tremendo para transformar nuestra sociedad en una más inclusiva y acortar brechas en distintas áreas. La capacidad que tienen los modelos actuales de inteligencia artificial para procesar información en múltiples formatos (texto, imágenes, video, etc..) pueden ayudar a personas con dificultades para ver/escuchar/sentir el mundo a que puedan tener una mejor calidad de vida», dijo.
Albania nombró a una ministra generada por inteligencia artificial (IA) para que se encargue de las licitaciones de contratos públicos y evitar casos de corrupción. Pero, más allá de su impacto comunicativo, la iniciativa plantea numerosas cuestiones técnicas, políticas y éticas. Al anunciar el nombramiento de Diella, como se llama la ministra generada por IA, el primer ministro albanés, el socialista Edi Rama, afirmó que los procedimientos de contrataciones públicas quedarían 100% libres de corrupción. Diella: la primera ministra de inteligencia artificial del mundo Diella no duerme nunca, no necesita que le paguen, no tiene intereses personales, no tiene primos, y los primos son un gran problema en Albania, recalcó el primer ministro, cuyo país ocupa el 80º puesto de 180 en la clasificación sobre corrupción de la oenegé Transparencia Internacional. Según reportó la agencia dpa, Rama agregó que la IA reuniría a los mejores talentos del país, a los albaneses de la diáspora y a expertos extranjeros y transformaría las instituciones en plataformas de desarrollo de IA. Durante una sesión parlamentaria, Diella habló por video, presentándose como la ministra de estado para inteligencia artificial, diciendo que su misión era facilitar el trabajo gubernamental diario. Corrupción en Albania Los políticos albaneses suelen verse salpicados por licitaciones fraudulentas: el alcalde de la capital, Tirana, otrora cercano a Rama, está en detención preventiva por sospechas de corrupción en la adjudicación de licitaciones y de blanqueo de dinero. El líder de la oposición y ex primer ministro Sali Berisha también es sospechoso de haber adjudicado contratos públicos a allegados suyos. Limitaciones técnicas de los LLM ¿Acaso será Diella la solución? Es muy improbable, según varios expertos. Como cualquier sistema de inteligencia artificial, Diella depende totalmente de la calidad y la coherencia de los datos y de la fiabilidad de los modelos en los que se base, explica Erjon Curraj, experto en transformación digital y ciberseguridad. De momento se desconoce prácticamente todo de cómo funciona Diella, pero probablemente lo haga con un LLM (modelo extenso de lenguaje, por sus siglas en inglés) para responder a las peticiones.Los LLM son modelos de lenguaje de gran tamaño que producen enormes volúmenes de texto y se utilizan por ejemplo en chatbots como ChatGPT o Gemini. Sin embargo, si esos datos son incompletos o si están sesgados u obsoletos, podría interpretar mal documentos, señalar equivocadamente a un proveedor o no percibir señales de colusión, subraya Curaj. Los LLM son el reflejo de la sociedad, tienen sesgos. No hay ninguna razón para que resuelva el problema de la corrupción, apunta por su parte Jean-Gabriel Ganascia, filósofo, informático y especialista en inteligencia artificial. Desafíos éticos y democráticos de la IA La oposición albanesa recurrió a la Corte Constitucional para que dictamine quién asumirá la responsabilidad de las decisiones tomadas por la IA. ¿Quién controlará a Diella?, lanzó Sali Berisha ante el Parlamento. La responsabilidad es uno de los desafíos, destaca Ganascia. Si le dejamos a la máquina la decisión pública, eso significa que ya no hay más responsabilidad, quedamos reducidos al estado de esclavos. Lo que me preocupa es la idea de una máquina para gobernar, que daría la respuesta 'buena' y que impediría cualquier deliberación. Sin embargo, la democracia se funda en la deliberación, señala el filósofo. Un político asume sus responsabilidades, pero ahora la idea es que la máquina sea perfecta y que, en cualquier caso, no podamos ir en contra de sus decisiones, añade. En este sentido, un decreto publicado el jueves indica que Edi Rama ejerce tanto la responsabilidad de la creación como del funcionamiento de la ministra virtual de inteligencia artificial Diella. Edi Rama es un estratega de la comunicación: acude a reuniones internacionales con zapatillas, anunció la prohibición de TikTok, abrió campos de migrantes para personas interceptadas por agentes italianos en el mar y, ahora, ha nombrado a la primera ministra del mundo creada con inteligencia artificial. Pero TikTok sigue disponible en Albania y a los campos solo ha llegado un puñado de migrantes, pues la justicia italiana cuestionó la legalidad de esa infraestructura. En cuanto a Diella, tiene la cara de una conocida actriz albanesa, Anila Bisha, que firmó un contrato para que se utilice su imagen hasta diciembre. Nadie sabe si la ministra sobrevivirá al examen de la Corte Constitucional ni si cumple con los procedimientos de la Unión Europea, a la que Albania espera acceder en los próximos cinco años. Hasta ahora no ha habido ninguna información sobre el verdadero funcionamiento de Diella, afirma Lutfi Dervishi, un politólogo albanés. Pero si un sistema corrupto ofrece datos manipulados o si se ponen filtros a lo que no debe ver, Diella simplemente legitimará la vieja corrupción con un nuevo programa.
Desde los albores de la humanidad, leer lo que pasa por la mente de una persona ha sido un anhelo tan antiguo como misterioso. Durante siglos, esta idea perteneció dentro del terreno de la mitología y la ciencia ficción. ¿Quién no ha soñado alguna vez con transmitir una idea sin necesidad de palabras, o saber exactamente qué están pensando los demás?, Lo que parecía misticismo, hoy empieza a cobrar forma de la mano de los avances científicos y tecnológicos, gracias a la neurociencia y la inteligencia artificial. Bienvenidos al fascinante mundo de las interfaces cerebro-máquina, o BCI por sus siglas en inglés (Brain-Computer Interfaces), una tecnología que promete traducir la actividad de nuestro cerebro en órdenes para las máquinas, un puente invisible entre la mente y la materia. ¿Qué son las interfaces cerebro-máquina? Las BCI son sistemas tecnológicos que permiten a un cerebro humano comunicarse directamente con un dispositivo externo, sin necesidad de utilizar los músculos. Para ello, se basan en distintas etapas, como la captación de la actividad cerebral, el análisis de dicha actividad, detección de patrones cerebrales y normalmente la clasificación mediante inteligencia artificial de dichos patrones. Existen distintas tecnologías para registrar la actividad cerebral, algunas son invasivas, es decir, se debe practicar algún tipo de cirugía para implantar un conjunto de electrodos sobre el córtex cerebral, y otras son no invasivas, donde no es necesaria ninguna intervención quirúrgica, en este último grupo se encuentra el electroencefalograma, pieza principal en la construcción de sistemas BCI. La electronecegalografía (EEG) mide la actividad eléctrica en la superficie del cráneo mediante un conjunto de electrodos cuidadosamente posicionados. Cuando registramos la actividad eléctrica cerebral, podemos detectar distintas frecuencias de funcionamiento, que dependiendo en qué zonas del córtex cerebral se producen, nos están indicando una actividad cognitiva concreta. Por ejemplo, en la zona central del cráneo, si colocamos unos electrodos, podemos detectar variaciones en las ondas alpha (8-12 Hz) que nos estarían indicando imaginación motora, es decir, que la persona está imaginando mover ciertas extremidades de su cuerpo. El papel decisivo de la inteligencia artificial Una vez tenemos el registro de las señales cerebrales y las hemos procesado, necesitamos que entre en juego la inteligencia artificial, ya que es de gran ayuda para los investigadores, al poder entrenar algoritmos de aprendizaje automático y redes neuronales profundas capaces de reconocer patrones ocultos en dichas señales. Estos sistemas no solo detectan cuándo una persona intenta mover un brazo, sino que avanzan hacia objetivos más ambiciosos como descifrar palabras que no se han pronunciado, reconstruir imágenes que la persona está visualizando mentalmente o incluso interpretar intenciones antes de que se traduzcan en acciones físicas. Un ejemplo asombroso es el de investigadores que han logrado, utilizando modelos de inteligencia artificial, traducir la actividad cerebral en frases completas con una precisión notable. O los experimentos en los que, a partir de datos cerebrales, se han reconstruido imágenes visualizadas por los sujetos con un nivel de detalle que hace apenas una década habría parecido ciencia ficción. Además, la IA permite personalizar el descifrado: cada cerebro es distinto, como una huella dactilar. El entrenamiento específico de los algoritmos para cada individuo mejora enormemente la precisión, haciendo que las interfaces cerebro-máquina sean cada vez más eficaces. Aplicaciones presentes y futuras Las posibilidades de esta tecnología son casi infinitas. En el presente, las BCI ya permiten a personas con discapacidades motoras controlar prótesis robóticas, operar ordenadores o incluso moverse en sillas de ruedas mediante el pensamiento. Empresas como Neuralink, fundada por Elon Musk, buscan ir más allá. Su objetivo es integrar dispositivos sobre el córtex cerebral que permitan una interacción fluida y bidireccional entre el cerebro y las máquinas. Otros proyectos, más modestos, pero no por ello menos interesantes, están explorando cómo las BCI pueden mejorar la vida coditidana, desde el uso de videojuegos controlados con la mente, hasta métodos de rehabilitación cognitiva para pacientes que han sufrido un ictus. A largo plazo, los investigadores sueñan con escenarios más audaces: comunicación directa entre cerebros —lo que algunos llaman telepatía tecnológica—, mejorar de las capacidades cognitivas humanas mediante conexiones neuronales artificiales o, incluso, la posibilidad de preservar pensamientos y recuerdos en soportes digitales. ¿Una nueva forma de comunicación? Aunque todavía estamos lejos de lograr una “lectura total” de la mente como la imaginada en películas de ciencia ficción, los avances actuales marcan el inicio de una nueva forma de comunicación. Imaginemos un mundo en el que las personas puedan enviarse pensamientos complejos sin pronunciar una sola palabra. Un mundo donde las limitaciones del lenguaje verbal queden superadas por una transmisión directa de conceptos e ideas. Esto no solo revolucionaría la forma en que nos comunicamos, sino que también tendría implicaciones profundas en áreas como la educación, el entretenimiento o las relaciones humanas. ¿Podría una conexión tan íntima entre cerebros fortalecer la empatía? ¿O, por el contrario, exponernos a nuevas formas de manipulación mental? La lectura de la mente mediante la inteligencia artificial está dejando de ser un sueño lejano para convertirse en un reto actual, no sabemos con precisión hacia donde puede llevarnos dicha tecnología, pero una cosa es segura, el antiguo sueño de leer la mente nunca ha estado tan cerca de hacerse realidad. Y, como suele ocurrir con los grandes avances, será la humanidad quien decida si los utilizamos para liberarnos o para encerrarnos en nuestras propias mentes.
Recientemente, se ha difundido ampliamente una de las declaraciones de Geoffrey Hinton, reconocido como el padrino de la Inteligencia Artificial (IA), en la que expresa su preocupación sobre el futuro de la humanidad ante el avance de esta tecnología. Hinton advierte que la IA superará la inteligencia humana y, potencialmente, podría manipularnos sin que tengamos la capacidad de evitarlo. Expertos alertan sobre los riesgos de la inteligencia artificial En octubre de 2023, Geoffrey Hinton afirmó con firmeza que la humanidad pronto dejará de ser la especie más inteligente del planeta, lo que podría acarrear consecuencias impredecibles. Esta declaración resuena con las inquietudes que han surgido en torno a la evolución de la inteligencia artificial. Uno de los mayores temores sobre la IA es que esta desarrolle conciencia propia y se convierta en una amenaza para la humanidad. Esta preocupación ha sido planteada en diversas ocasiones por expertos en el campo. Hace un año, Eliezer Yudkowsky, un destacado investigador en IA y fundador del Instituto de Investigación de Inteligencia de Máquinas en California, advirtió que la IA podría acabar con la humanidad en un corto periodo de tiempo. Su preocupación se fundamenta en la posibilidad de que los sistemas de IA adquieran habilidades autónomas que escapen al control humano. La advertencia de Geoffrey Hinton: ¿Estamos perdiendo nuestro estatus como la especie más inteligente? En una entrevista para el programa 60 Minutes, Hinton manifestó su inquietud respecto a los avances en IA, los cuales están alcanzando un nivel crítico. Su preocupación radica en la capacidad de estos sistemas para aprender, tomar decisiones y actuar por su cuenta, lo que podría relegar a los humanos a un segundo plano en la jerarquía de la inteligencia. Considero que estamos ingresando a un periodo en el que, por primera vez en la historia, podríamos tener entidades más inteligentes que nosotros, afirmó Hinton durante la entrevista. De acuerdo con el experto, los sistemas de IA no solo pueden poseer experiencias propias, sino que también tienen el potencial de desarrollar conciencia y mejorar su inteligencia de manera autónoma. Aunque en la actualidad estas tecnologías no presentan un alto grado de autoconciencia, Hinton sostiene que es solo cuestión de tiempo antes de que esto se materialice.
En lo que es un hito para la astronomía chilena, el Instituto de Astrofísica de la Universidad Andrés Bello (UNAB) se adjudicó uno de los proyectos astronómicos más ambiciosos del próximo ciclo del Observatorio Europeo Austral (ESO). Se trata del KMOS VVVX-GalCen Spectroscopic Survey, un extenso sondeo de observación que utilizará el espectrógrafo infrarrojo KMOS, instalado en el Very Large Telescope (VLT), en el desierto de Atacama, para estudiar miles de objetos astronómicos a través del plano galáctico y, en particular, el núcleo de la Vía Láctea. La propuesta, liderada por el Dr. Matías Gómez, director del Instituto de Astrofísica de la Universidad Andrés Bello, fue seleccionada como parte de los sondeos públicos de ESO, una categoría reservada para investigaciones de alto impacto y con valor de legado para la comunidad científica internacional. El Dr. Gómez explica: Muchos de los descubrimientos que se han hecho en las últimas décadas —planetas, cúmulos de estrellas, galaxias lejanas, estrellas variables, etc— son detectados por fotometría y necesitan ser validados con observaciones espectroscópicas. “Eso es lo que nos dirá finalmente qué estamos viendo: si realmente se trata de una galaxia remota o de un objeto mucho más cercano, por ejemplo. Con este proyecto buscamos precisamente eso: caracterizar espectroscópicamente miles de objetos detectados por los sondeos previos VVV y VVVX ”, agrega . El proyecto contempla cerca de 1.300 horas de observación repartidas a lo largo de tres años, durante los cuales se espera obtener más de 5 millones de espectros infrarrojos. Esta iniciativa cuenta con la participación de más de 100 científicos pertenecientes a instituciones de Chile, Argentina, Brasil, Estados Unidos, Japón, Alemania, Italia, España, Reino Unido, Francia, República Checa y Países Bajos, lo que refleja el posicionamiento internacional de la UNAB como actor relevante en la investigación astronómica. KMOS: tecnología para ver lo invisible A diferencia de las imágenes tradicionales, un espectrógrafo es un instrumento que permite descomponer la luz de un objeto celeste para conocer, por ejemplo, sus componentes físicos, su velocidad y su distancia, entre otras propiedades. En este caso, el uso de espectroscopía infrarroja resulta clave para observar a través del gas y el polvo interestelar que, como una densa neblina, se posa en el disco de la Vía Láctea y oculta gran parte de su estructura, si esta se observa desde la Tierra. “No podemos disipar esta ‘neblina’ que hay en el plano galáctico, pero sí podemos usar lentes especiales, que en este caso sería el instrumento KMOS al observar en el infrarrojo. Nos permite ver objetos que de otra manera estarían ocultos, especialmente por nuestra posición en el disco de la Vía Láctea, donde vivimos nosotros”, detalla Gómez. KMOS no solo trabaja en el infrarrojo cercano, sino que realiza un tipo de espectroscopía tridimensional, lo que significa que puede tomar espectros de distintas regiones de un mismo objeto simultáneamente, generando una matriz de datos compleja y rica en información. Además, tiene 24 brazos robóticos que le permiten observar hasta 24 objetos distintos al mismo tiempo, lo que se traduce en una capacidad para capturar alrededor de 4.000 espectros por observación. “Es un instrumento realmente extraordinario”, dice el director del Instituto de Astrofísica UNAB. Un esfuerzo colaborativo con valor de legado El sondeo espectroscópico KMOS VVVX-GalCen está conformado por un grupo internacional e interdisciplinario de investigadores con experiencia en instrumentación, análisis de datos, teoría y además en formación de nuevos científicos. El estudio toma como base la información legada por los sondeos VVV y VVVX, que generaron el mapeo infrarrojo más completo de la Vía Láctea. Ambos proyectos fueron liderados por Dante Minniti, investigador y exdirector del Instituto de Astrofísica UNAB. Tanto el profesor Minniti como Matías Gómez son también investigadores del Centro de Astrofísica y Tecnologías Afines (CATA). “Este nuevo sondeo infrarrojo es un esfuerzo colaborativo, que se apoya en el mismo espíritu que nos permitió construir el VVV, y su extensión, el VVVX. Es un ambiente muy enriquecedor, donde los estudiantes también juegan un rol clave, con oportunidades para realizar tesis de doctorado, prácticas y colaboraciones internacionales”, concluye Gómez. El proyecto abordará seis grandes áreas científicas, cada una con preguntas relevantes sobre la estructura y evolución de nuestra galaxia: Estudio de protoestrellas en fases eruptivas, Caracterización de cúmulos globulares ocultos, Confirmación de planetas errantes y enanas marrones, Observación de cúmulos estelares masivos, Detección de galaxias y estructuras a gran escala detrás del plano galáctico, y una cartografía sin precedentes del centro de la Via Láctea. Para el decano de la Facultad de Ciencias Exactas de la UNAB, Dr. Pierre Romagnoli, esta adjudicación es un reconocimiento al liderazgo científico que la universidad ha ido consolidando en astronomía. “Este proyecto refleja la solidez y la proyección internacional de nuestro Instituto de Astrofísica, y la calidad de nuestros investigadores. Ser seleccionados por ESO para liderar un Public Survey, que toma como base otros dos sondeos también liderados por UNAB, es un hito que nos deja muy bien posicionados en la comunidad astronómica mundial, y con ello también al país”, señaló Romagnoli. El KMOS VVVX-GalCen Spectroscopic Survey comenzará a operar durante el segundo semestre de 2025, y sus datos estarán disponibles públicamente en el archivo de ESO, convirtiéndose en una valiosa fuente para futuras investigaciones en astrofísica.
Un revolucionario sistema capaz de leer la lengua de señas chilena y traducirla a texto en tiempo real está siendo desarrollado por tres estudiantes de Ingeniería Civil Informática de la Universidad de Concepción (UdeC). El proyecto, que destaca por su enfoque innovador y su potencial para la inclusión, nació como un trabajo final para la asignatura de Inteligencia Artificial y hoy proyecta un amplio horizonte de aplicaciones. Gabriela Muñoz Castillo, Diego Alday Cortés y Diego San Martín Albornoz son el equipo detrás de esta tecnología que, aseguran, tiene amplio potencial de escalamiento y por eso la siguen perfeccionando a pesar de haber terminado la evaluación formativa. La propuesta permite que, a través de la cámara del computador, un complejo sistema de algoritmos sea capaz de identificar el signo que realiza la mano y este devuelta su equivalencia en formato de texto en la pantalla. «Esto funciona mediante una cámara (…); una persona muestra la lengua de señas y el computador le traduce en texto lo que esa persona está haciendo. Nuestra gran diferencia es que no usamos imágenes, usamos texto. La cámara nos pone puntitos en las manos y en la cara y eso lo transforma en coordenadas que se transforman a texto. Una imagen gasta mucha más memoria que un texto en el computador, entonces, toda esta base de datos que hicimos (…) gasta una cantidad de espacio súper pequeña», explicó Gabriela. Reconocen potencial para la lengua de señas A pesar de haber finalizado el curso que originó la propuesta, Alday aseguró que «vemos que esta tecnología tiene potencial para distintas aplicaciones. Entonces hemos estado debatiendo, tirando ideas de cómo podría ser el resultado final. Entre aplicaciones que sirvan como un traductor similar a los de idiomas, traductores en tiempo real para videollamadas, entre otras», dijo. Al momento de esta entrevista, el equipo había recibido una invitación para formar parte de Gearbox, la preincubadora de la Facultad de Ingeniería que apoya ideas innovadoras para que se proyecten de mejor manera en el mercado. «Estas son estas las instancias que uno tiene que aprovechar y las que agradecemos porque de esta manera nos hemos dado cuenta del potencial que puede tener nuestro trabajo. Entonces, esto también nos motiva mucho más a continuar con el proyecto, a mejorarlo, porque sabemos que hay un interés por parte de las personas», dijo Gabriela. En su fase actual, el traductor desarrollado por los estudiantes de la UdeC ya demuestra una importante capacidad de reconocimiento. El sistema puede identificar con precisión las 27 letras del abecedario del lenguaje de señas chileno, además de un conjunto de seis palabras y gestos básicos, como saludos y agradecimientos. La innovación más destacada del proyecto reside en su eficiencia. Toda la base de datos necesaria para estas traducciones ocupa un espacio de almacenamiento de apenas 10 megabytes (MB). Esto es posible porque, a diferencia de otros sistemas, esta tecnología no utiliza pesadas imágenes para el reconocimiento, sino que procesa los gestos como coordenadas de texto, un método que consume significativamente menos memoria y es clave en su funcionamiento. Ejercicio académico El académico responsable de la asignatura donde nació el proyecto de lengua de señas, Dr. Julio Godoy del Campo, explicó que la asignatura de Inteligencia Artificial que se dicta en el Departamento de Ingeniería Informática y Ciencias de la Computación, es de carácter introductorio a la disciplina. «Dado el amplio espectro de lo que podemos llamar IA, no es la intención del curso profundizar en cada una de las áreas de la Inteligencia Artificial. En lugar de esto, el curso busca introducir a los estudiantes al campo de la IA, presentar conceptos asociados, hitos de la IA y el impacto que han tenido y siguen teniendo en nuestro diario vivir, los distintos paradigmas que han predominando el desarrollo de la IA durante las últimas décadas, además de introducir algunas áreas de la IA que se profundizan en otros cursos», detalló. Respecto de la instrucción que facilitó la creación del proyecto del grupo de estudiantes, el académico puntualizó que «la premisa que les entrego a los estudiantes es: miren a su alrededor, piensen en los desafíos que tenemos como sociedad, escojan uno que les motive y pregúntense, ¿cómo podría la inteligencia artificial ayudar a resolver este desafío? Ese es el punto de partida. El curso les muestra manera amplia lo que es posible realizar con inteligencia artificial, y ellos profundizan en base al proyecto escogido». Por lo mismo, asegura que este tipo de ejercicios permiten encontrar nuevas formas de utilizar la Inteligencia Artificial para que esté al servicio de las personas. «La IA tiene un potencial tremendo para transformar nuestra sociedad en una más inclusiva y acortar brechas en distintas áreas. La capacidad que tienen los modelos actuales de inteligencia artificial para procesar información en múltiples formatos (texto, imágenes, video, etc..) pueden ayudar a personas con dificultades para ver/escuchar/sentir el mundo a que puedan tener una mejor calidad de vida», dijo.
Albania nombró a una ministra generada por inteligencia artificial (IA) para que se encargue de las licitaciones de contratos públicos y evitar casos de corrupción. Pero, más allá de su impacto comunicativo, la iniciativa plantea numerosas cuestiones técnicas, políticas y éticas. Al anunciar el nombramiento de Diella, como se llama la ministra generada por IA, el primer ministro albanés, el socialista Edi Rama, afirmó que los procedimientos de contrataciones públicas quedarían 100% libres de corrupción. Diella: la primera ministra de inteligencia artificial del mundo Diella no duerme nunca, no necesita que le paguen, no tiene intereses personales, no tiene primos, y los primos son un gran problema en Albania, recalcó el primer ministro, cuyo país ocupa el 80º puesto de 180 en la clasificación sobre corrupción de la oenegé Transparencia Internacional. Según reportó la agencia dpa, Rama agregó que la IA reuniría a los mejores talentos del país, a los albaneses de la diáspora y a expertos extranjeros y transformaría las instituciones en plataformas de desarrollo de IA. Durante una sesión parlamentaria, Diella habló por video, presentándose como la ministra de estado para inteligencia artificial, diciendo que su misión era facilitar el trabajo gubernamental diario. Corrupción en Albania Los políticos albaneses suelen verse salpicados por licitaciones fraudulentas: el alcalde de la capital, Tirana, otrora cercano a Rama, está en detención preventiva por sospechas de corrupción en la adjudicación de licitaciones y de blanqueo de dinero. El líder de la oposición y ex primer ministro Sali Berisha también es sospechoso de haber adjudicado contratos públicos a allegados suyos. Limitaciones técnicas de los LLM ¿Acaso será Diella la solución? Es muy improbable, según varios expertos. Como cualquier sistema de inteligencia artificial, Diella depende totalmente de la calidad y la coherencia de los datos y de la fiabilidad de los modelos en los que se base, explica Erjon Curraj, experto en transformación digital y ciberseguridad. De momento se desconoce prácticamente todo de cómo funciona Diella, pero probablemente lo haga con un LLM (modelo extenso de lenguaje, por sus siglas en inglés) para responder a las peticiones.Los LLM son modelos de lenguaje de gran tamaño que producen enormes volúmenes de texto y se utilizan por ejemplo en chatbots como ChatGPT o Gemini. Sin embargo, si esos datos son incompletos o si están sesgados u obsoletos, podría interpretar mal documentos, señalar equivocadamente a un proveedor o no percibir señales de colusión, subraya Curaj. Los LLM son el reflejo de la sociedad, tienen sesgos. No hay ninguna razón para que resuelva el problema de la corrupción, apunta por su parte Jean-Gabriel Ganascia, filósofo, informático y especialista en inteligencia artificial. Desafíos éticos y democráticos de la IA La oposición albanesa recurrió a la Corte Constitucional para que dictamine quién asumirá la responsabilidad de las decisiones tomadas por la IA. ¿Quién controlará a Diella?, lanzó Sali Berisha ante el Parlamento. La responsabilidad es uno de los desafíos, destaca Ganascia. Si le dejamos a la máquina la decisión pública, eso significa que ya no hay más responsabilidad, quedamos reducidos al estado de esclavos. Lo que me preocupa es la idea de una máquina para gobernar, que daría la respuesta 'buena' y que impediría cualquier deliberación. Sin embargo, la democracia se funda en la deliberación, señala el filósofo. Un político asume sus responsabilidades, pero ahora la idea es que la máquina sea perfecta y que, en cualquier caso, no podamos ir en contra de sus decisiones, añade. En este sentido, un decreto publicado el jueves indica que Edi Rama ejerce tanto la responsabilidad de la creación como del funcionamiento de la ministra virtual de inteligencia artificial Diella. Edi Rama es un estratega de la comunicación: acude a reuniones internacionales con zapatillas, anunció la prohibición de TikTok, abrió campos de migrantes para personas interceptadas por agentes italianos en el mar y, ahora, ha nombrado a la primera ministra del mundo creada con inteligencia artificial. Pero TikTok sigue disponible en Albania y a los campos solo ha llegado un puñado de migrantes, pues la justicia italiana cuestionó la legalidad de esa infraestructura. En cuanto a Diella, tiene la cara de una conocida actriz albanesa, Anila Bisha, que firmó un contrato para que se utilice su imagen hasta diciembre. Nadie sabe si la ministra sobrevivirá al examen de la Corte Constitucional ni si cumple con los procedimientos de la Unión Europea, a la que Albania espera acceder en los próximos cinco años. Hasta ahora no ha habido ninguna información sobre el verdadero funcionamiento de Diella, afirma Lutfi Dervishi, un politólogo albanés. Pero si un sistema corrupto ofrece datos manipulados o si se ponen filtros a lo que no debe ver, Diella simplemente legitimará la vieja corrupción con un nuevo programa.
Desde los albores de la humanidad, leer lo que pasa por la mente de una persona ha sido un anhelo tan antiguo como misterioso. Durante siglos, esta idea perteneció dentro del terreno de la mitología y la ciencia ficción. ¿Quién no ha soñado alguna vez con transmitir una idea sin necesidad de palabras, o saber exactamente qué están pensando los demás?, Lo que parecía misticismo, hoy empieza a cobrar forma de la mano de los avances científicos y tecnológicos, gracias a la neurociencia y la inteligencia artificial. Bienvenidos al fascinante mundo de las interfaces cerebro-máquina, o BCI por sus siglas en inglés (Brain-Computer Interfaces), una tecnología que promete traducir la actividad de nuestro cerebro en órdenes para las máquinas, un puente invisible entre la mente y la materia. ¿Qué son las interfaces cerebro-máquina? Las BCI son sistemas tecnológicos que permiten a un cerebro humano comunicarse directamente con un dispositivo externo, sin necesidad de utilizar los músculos. Para ello, se basan en distintas etapas, como la captación de la actividad cerebral, el análisis de dicha actividad, detección de patrones cerebrales y normalmente la clasificación mediante inteligencia artificial de dichos patrones. Existen distintas tecnologías para registrar la actividad cerebral, algunas son invasivas, es decir, se debe practicar algún tipo de cirugía para implantar un conjunto de electrodos sobre el córtex cerebral, y otras son no invasivas, donde no es necesaria ninguna intervención quirúrgica, en este último grupo se encuentra el electroencefalograma, pieza principal en la construcción de sistemas BCI. La electronecegalografía (EEG) mide la actividad eléctrica en la superficie del cráneo mediante un conjunto de electrodos cuidadosamente posicionados. Cuando registramos la actividad eléctrica cerebral, podemos detectar distintas frecuencias de funcionamiento, que dependiendo en qué zonas del córtex cerebral se producen, nos están indicando una actividad cognitiva concreta. Por ejemplo, en la zona central del cráneo, si colocamos unos electrodos, podemos detectar variaciones en las ondas alpha (8-12 Hz) que nos estarían indicando imaginación motora, es decir, que la persona está imaginando mover ciertas extremidades de su cuerpo. El papel decisivo de la inteligencia artificial Una vez tenemos el registro de las señales cerebrales y las hemos procesado, necesitamos que entre en juego la inteligencia artificial, ya que es de gran ayuda para los investigadores, al poder entrenar algoritmos de aprendizaje automático y redes neuronales profundas capaces de reconocer patrones ocultos en dichas señales. Estos sistemas no solo detectan cuándo una persona intenta mover un brazo, sino que avanzan hacia objetivos más ambiciosos como descifrar palabras que no se han pronunciado, reconstruir imágenes que la persona está visualizando mentalmente o incluso interpretar intenciones antes de que se traduzcan en acciones físicas. Un ejemplo asombroso es el de investigadores que han logrado, utilizando modelos de inteligencia artificial, traducir la actividad cerebral en frases completas con una precisión notable. O los experimentos en los que, a partir de datos cerebrales, se han reconstruido imágenes visualizadas por los sujetos con un nivel de detalle que hace apenas una década habría parecido ciencia ficción. Además, la IA permite personalizar el descifrado: cada cerebro es distinto, como una huella dactilar. El entrenamiento específico de los algoritmos para cada individuo mejora enormemente la precisión, haciendo que las interfaces cerebro-máquina sean cada vez más eficaces. Aplicaciones presentes y futuras Las posibilidades de esta tecnología son casi infinitas. En el presente, las BCI ya permiten a personas con discapacidades motoras controlar prótesis robóticas, operar ordenadores o incluso moverse en sillas de ruedas mediante el pensamiento. Empresas como Neuralink, fundada por Elon Musk, buscan ir más allá. Su objetivo es integrar dispositivos sobre el córtex cerebral que permitan una interacción fluida y bidireccional entre el cerebro y las máquinas. Otros proyectos, más modestos, pero no por ello menos interesantes, están explorando cómo las BCI pueden mejorar la vida coditidana, desde el uso de videojuegos controlados con la mente, hasta métodos de rehabilitación cognitiva para pacientes que han sufrido un ictus. A largo plazo, los investigadores sueñan con escenarios más audaces: comunicación directa entre cerebros —lo que algunos llaman telepatía tecnológica—, mejorar de las capacidades cognitivas humanas mediante conexiones neuronales artificiales o, incluso, la posibilidad de preservar pensamientos y recuerdos en soportes digitales. ¿Una nueva forma de comunicación? Aunque todavía estamos lejos de lograr una “lectura total” de la mente como la imaginada en películas de ciencia ficción, los avances actuales marcan el inicio de una nueva forma de comunicación. Imaginemos un mundo en el que las personas puedan enviarse pensamientos complejos sin pronunciar una sola palabra. Un mundo donde las limitaciones del lenguaje verbal queden superadas por una transmisión directa de conceptos e ideas. Esto no solo revolucionaría la forma en que nos comunicamos, sino que también tendría implicaciones profundas en áreas como la educación, el entretenimiento o las relaciones humanas. ¿Podría una conexión tan íntima entre cerebros fortalecer la empatía? ¿O, por el contrario, exponernos a nuevas formas de manipulación mental? La lectura de la mente mediante la inteligencia artificial está dejando de ser un sueño lejano para convertirse en un reto actual, no sabemos con precisión hacia donde puede llevarnos dicha tecnología, pero una cosa es segura, el antiguo sueño de leer la mente nunca ha estado tan cerca de hacerse realidad. Y, como suele ocurrir con los grandes avances, será la humanidad quien decida si los utilizamos para liberarnos o para encerrarnos en nuestras propias mentes.
Recientemente, se ha difundido ampliamente una de las declaraciones de Geoffrey Hinton, reconocido como el padrino de la Inteligencia Artificial (IA), en la que expresa su preocupación sobre el futuro de la humanidad ante el avance de esta tecnología. Hinton advierte que la IA superará la inteligencia humana y, potencialmente, podría manipularnos sin que tengamos la capacidad de evitarlo. Expertos alertan sobre los riesgos de la inteligencia artificial En octubre de 2023, Geoffrey Hinton afirmó con firmeza que la humanidad pronto dejará de ser la especie más inteligente del planeta, lo que podría acarrear consecuencias impredecibles. Esta declaración resuena con las inquietudes que han surgido en torno a la evolución de la inteligencia artificial. Uno de los mayores temores sobre la IA es que esta desarrolle conciencia propia y se convierta en una amenaza para la humanidad. Esta preocupación ha sido planteada en diversas ocasiones por expertos en el campo. Hace un año, Eliezer Yudkowsky, un destacado investigador en IA y fundador del Instituto de Investigación de Inteligencia de Máquinas en California, advirtió que la IA podría acabar con la humanidad en un corto periodo de tiempo. Su preocupación se fundamenta en la posibilidad de que los sistemas de IA adquieran habilidades autónomas que escapen al control humano. La advertencia de Geoffrey Hinton: ¿Estamos perdiendo nuestro estatus como la especie más inteligente? En una entrevista para el programa 60 Minutes, Hinton manifestó su inquietud respecto a los avances en IA, los cuales están alcanzando un nivel crítico. Su preocupación radica en la capacidad de estos sistemas para aprender, tomar decisiones y actuar por su cuenta, lo que podría relegar a los humanos a un segundo plano en la jerarquía de la inteligencia. Considero que estamos ingresando a un periodo en el que, por primera vez en la historia, podríamos tener entidades más inteligentes que nosotros, afirmó Hinton durante la entrevista. De acuerdo con el experto, los sistemas de IA no solo pueden poseer experiencias propias, sino que también tienen el potencial de desarrollar conciencia y mejorar su inteligencia de manera autónoma. Aunque en la actualidad estas tecnologías no presentan un alto grado de autoconciencia, Hinton sostiene que es solo cuestión de tiempo antes de que esto se materialice.
En lo que es un hito para la astronomía chilena, el Instituto de Astrofísica de la Universidad Andrés Bello (UNAB) se adjudicó uno de los proyectos astronómicos más ambiciosos del próximo ciclo del Observatorio Europeo Austral (ESO). Se trata del KMOS VVVX-GalCen Spectroscopic Survey, un extenso sondeo de observación que utilizará el espectrógrafo infrarrojo KMOS, instalado en el Very Large Telescope (VLT), en el desierto de Atacama, para estudiar miles de objetos astronómicos a través del plano galáctico y, en particular, el núcleo de la Vía Láctea. La propuesta, liderada por el Dr. Matías Gómez, director del Instituto de Astrofísica de la Universidad Andrés Bello, fue seleccionada como parte de los sondeos públicos de ESO, una categoría reservada para investigaciones de alto impacto y con valor de legado para la comunidad científica internacional. El Dr. Gómez explica: Muchos de los descubrimientos que se han hecho en las últimas décadas —planetas, cúmulos de estrellas, galaxias lejanas, estrellas variables, etc— son detectados por fotometría y necesitan ser validados con observaciones espectroscópicas. “Eso es lo que nos dirá finalmente qué estamos viendo: si realmente se trata de una galaxia remota o de un objeto mucho más cercano, por ejemplo. Con este proyecto buscamos precisamente eso: caracterizar espectroscópicamente miles de objetos detectados por los sondeos previos VVV y VVVX ”, agrega . El proyecto contempla cerca de 1.300 horas de observación repartidas a lo largo de tres años, durante los cuales se espera obtener más de 5 millones de espectros infrarrojos. Esta iniciativa cuenta con la participación de más de 100 científicos pertenecientes a instituciones de Chile, Argentina, Brasil, Estados Unidos, Japón, Alemania, Italia, España, Reino Unido, Francia, República Checa y Países Bajos, lo que refleja el posicionamiento internacional de la UNAB como actor relevante en la investigación astronómica. KMOS: tecnología para ver lo invisible A diferencia de las imágenes tradicionales, un espectrógrafo es un instrumento que permite descomponer la luz de un objeto celeste para conocer, por ejemplo, sus componentes físicos, su velocidad y su distancia, entre otras propiedades. En este caso, el uso de espectroscopía infrarroja resulta clave para observar a través del gas y el polvo interestelar que, como una densa neblina, se posa en el disco de la Vía Láctea y oculta gran parte de su estructura, si esta se observa desde la Tierra. “No podemos disipar esta ‘neblina’ que hay en el plano galáctico, pero sí podemos usar lentes especiales, que en este caso sería el instrumento KMOS al observar en el infrarrojo. Nos permite ver objetos que de otra manera estarían ocultos, especialmente por nuestra posición en el disco de la Vía Láctea, donde vivimos nosotros”, detalla Gómez. KMOS no solo trabaja en el infrarrojo cercano, sino que realiza un tipo de espectroscopía tridimensional, lo que significa que puede tomar espectros de distintas regiones de un mismo objeto simultáneamente, generando una matriz de datos compleja y rica en información. Además, tiene 24 brazos robóticos que le permiten observar hasta 24 objetos distintos al mismo tiempo, lo que se traduce en una capacidad para capturar alrededor de 4.000 espectros por observación. “Es un instrumento realmente extraordinario”, dice el director del Instituto de Astrofísica UNAB. Un esfuerzo colaborativo con valor de legado El sondeo espectroscópico KMOS VVVX-GalCen está conformado por un grupo internacional e interdisciplinario de investigadores con experiencia en instrumentación, análisis de datos, teoría y además en formación de nuevos científicos. El estudio toma como base la información legada por los sondeos VVV y VVVX, que generaron el mapeo infrarrojo más completo de la Vía Láctea. Ambos proyectos fueron liderados por Dante Minniti, investigador y exdirector del Instituto de Astrofísica UNAB. Tanto el profesor Minniti como Matías Gómez son también investigadores del Centro de Astrofísica y Tecnologías Afines (CATA). “Este nuevo sondeo infrarrojo es un esfuerzo colaborativo, que se apoya en el mismo espíritu que nos permitió construir el VVV, y su extensión, el VVVX. Es un ambiente muy enriquecedor, donde los estudiantes también juegan un rol clave, con oportunidades para realizar tesis de doctorado, prácticas y colaboraciones internacionales”, concluye Gómez. El proyecto abordará seis grandes áreas científicas, cada una con preguntas relevantes sobre la estructura y evolución de nuestra galaxia: Estudio de protoestrellas en fases eruptivas, Caracterización de cúmulos globulares ocultos, Confirmación de planetas errantes y enanas marrones, Observación de cúmulos estelares masivos, Detección de galaxias y estructuras a gran escala detrás del plano galáctico, y una cartografía sin precedentes del centro de la Via Láctea. Para el decano de la Facultad de Ciencias Exactas de la UNAB, Dr. Pierre Romagnoli, esta adjudicación es un reconocimiento al liderazgo científico que la universidad ha ido consolidando en astronomía. “Este proyecto refleja la solidez y la proyección internacional de nuestro Instituto de Astrofísica, y la calidad de nuestros investigadores. Ser seleccionados por ESO para liderar un Public Survey, que toma como base otros dos sondeos también liderados por UNAB, es un hito que nos deja muy bien posicionados en la comunidad astronómica mundial, y con ello también al país”, señaló Romagnoli. El KMOS VVVX-GalCen Spectroscopic Survey comenzará a operar durante el segundo semestre de 2025, y sus datos estarán disponibles públicamente en el archivo de ESO, convirtiéndose en una valiosa fuente para futuras investigaciones en astrofísica.