Un juez colombiano usa el chatbot ChatGPT para dictar sentencia
Un juez colombiano usa el chatbot ChatGPT para dictar sentencia
Sputnik Mundo
Un juez en Colombia le preguntó a la aplicación de inteligencia artificial ChatGPT cómo se aplicaban las leyes en el caso de la financiación médica de un niño... 03.02.2023, Sputnik Mundo
ChatGPT se usa para la búsqueda de textos en internet con el objetivo de generar respuestas informadas con la ayuda de la inteligencia artificial. Sin embargo, se ha demostrado que brinda diferentes respuestas a la misma pregunta y que también en ocasiones puede fabricar información para ayudar a hacer mentiras ingeniosas y convincentes.Juan Manuel Padilla es el nombre del juez colombiano que causó revuelo nacional al admitir que usó la aplicación ChatGPT para tomar una decisión sobre su sentencia sobre si el seguro de un niño autista debería cubrir todos los costos de su tratamiento médico.El juez de la ciudad de Cartagena, quien además utilizó precedentes de sentencias anteriores para respaldar su decisión, concluyó que la totalidad de los gastos médicos y los costos de transporte del niño deben ser pagados por su plan médico, ya que sus padres no pueden pagarlos.Si bien el fallo en sí no fue cuestionado, las conversaciones de Padilla con ChatGPT han sido asunto de investigación. Los documentos legales demuestran que Padilla le preguntó a ChatGPT de manera precisa el asunto legal en cuestión: "¿Está un menor autista exonerado de pagar las tarifas de sus terapias?".La respuesta de ChatGPT coincidió con la decisión final del juez: "Sí, esto es correcto. Según la normativa en Colombia, los menores de edad diagnosticados con autismo están exentos del pago de tasas por sus terapias".Padilla defendió el haber hecho uso de la tecnología, sugiriendo que podría hacer que el sistema legal de Colombia sea más eficiente. El caso ha suscitado una discusión sobre el uso de la IA en la ley y ha sido criticado por algunos de sus colegas.Padilla comentó a Blu Radio el 2 de febrero que ChatGPT y otros programas similares podrían ser útiles para "facilitar la redacción de textos", pero "no con el objetivo de reemplazar" a los jueces, insistiendo en que "por hacer preguntas a la aplicación, no dejamos de ser jueces, seres pensantes".El juez incluso argumentó que la aplicación realiza servicios previamente aprobados por una secretaría y lo hace "de manera organizada, simple y estructurada", lo que podría permitir "mejorar los tiempos de respuesta" en el sistema de justicia.El profesor Juan David Gutiérrez, de la Universidad del Rosario, estuvo entre los que expresaron su incredulidad ante la admisión del juez, quién pidió capacitación urgente en "alfabetización digital" para los jueces.A pesar de todo el revuelo mediático, Colombia aprobó una ley en 2022 que sugiere que los abogados públicos pueden usar tecnologías donde sea posible para hacer su trabajo más eficiente.Octavio Tejeiro, juez de la corte suprema de Colombia, manifestó que la IA causó pánico moral en la ley porque la gente temía que los robots reemplazarán a los jueces, pero predijo que la herramienta probablemente pronto sería aceptada y de uso común.Así mismo, Tejeiro declaró a The Guardian que no había usado ChatGPT, pero que consideraría usarlo en el futuro. Agregó que "el sistema de justicia debería aprovechar al máximo la tecnología como herramienta, pero siempre dentro de la ética y teniendo en cuenta que el administrador de justicia es finalmente un ser humano. (…) Esto debe ser visto como un instrumento que le sirve al juez para mejorar su sentencia. No podemos permitir que la herramienta se vuelva más importante que la persona".Sin embargo, aseguró que "los jueces no deben usar ChatGPT cuando se pronuncian sobre casos legales… No es un sustituto del conocimiento, la experiencia y el juicio de un juez humano".
Un juez en Colombia le preguntó a la aplicación de inteligencia artificial ChatGPT cómo se aplicaban las leyes en el caso de la financiación médica de un niño autista. El hecho causó revuelo nacional, ya que se ponía en tela de juicio la preparación de los jueces para dar una sentencia y el uso de IA en los tribunales.
ChatGPT se usa para la búsqueda de textos en internet con el objetivo de generar respuestas informadas con la ayuda de la inteligencia artificial. Sin embargo, se ha demostrado que brinda diferentes respuestas a la misma pregunta y que también en ocasiones puede fabricar información para ayudar a hacer mentiras ingeniosas y convincentes.
Juan Manuel Padilla es el nombre del juez colombiano que causó revuelo nacional al admitir que usó la aplicación ChatGPT para tomar una decisión sobre su sentencia sobre si el seguro de un niño autista debería cubrir todos los costos de su tratamiento médico.
El juez de la ciudad de Cartagena, quien además utilizó precedentes de sentencias anteriores para respaldar su decisión, concluyó que la totalidad de los gastos médicos y los costos de transporte del niño deben ser pagados por su plan médico, ya que sus padres no pueden pagarlos.
Si bien el fallo en sí no fue cuestionado, las conversaciones de Padilla con ChatGPT han sido asunto de investigación. Los documentos legales demuestran que Padilla le preguntó a ChatGPT de manera precisa el asunto legal en cuestión: "¿Está un menor autista exonerado de pagar las tarifas de sus terapias?".
La respuesta de ChatGPT coincidió con la decisión final del juez: "Sí, esto es correcto. Según la normativa en Colombia, los menores de edad diagnosticados con autismo están exentos del pago de tasas por sus terapias".
Padilla defendió el haber hecho uso de la tecnología, sugiriendo que podría hacer que el sistema legal de Colombia sea más eficiente. El caso ha suscitado una discusión sobre el uso de la IA en la ley y ha sido criticado por algunos de sus colegas.
Padilla comentó a Blu Radio el 2 de febrero que ChatGPT y otros programas similares podrían ser útiles para "facilitar la redacción de textos", pero "no con el objetivo de reemplazar" a los jueces, insistiendo en que "por hacer preguntas a la aplicación, no dejamos de ser jueces, seres pensantes".
El juez incluso argumentó que la aplicación realiza servicios previamente aprobados por una secretaría y lo hace "de manera organizada, simple y estructurada", lo que podría permitir "mejorar los tiempos de respuesta" en el sistema de justicia.
El profesor Juan David Gutiérrez, de la Universidad del Rosario, estuvo entre los que expresaron su incredulidad ante la admisión del juez, quién pidió capacitación urgente en "alfabetización digital" para los jueces.
A pesar de todo el revuelo mediático, Colombia aprobó una ley en 2022 que sugiere que los abogados públicos pueden usar tecnologías donde sea posible para hacer su trabajo más eficiente.
Octavio Tejeiro, juez de la corte suprema de Colombia, manifestó que la IA causó pánico moral en la ley porque la gente temía que los robots reemplazarán a los jueces, pero predijo que la herramienta probablemente pronto sería aceptada y de uso común.
Así mismo, Tejeiro declaró a The Guardian que no había usado ChatGPT, pero que consideraría usarlo en el futuro. Agregó que "el sistema de justicia debería aprovechar al máximo la tecnología como herramienta, pero siempre dentro de la ética y teniendo en cuenta que el administrador de justicia es finalmente un ser humano. (…) Esto debe ser visto como un instrumento que le sirve al juez para mejorar su sentencia. No podemos permitir que la herramienta se vuelva más importante que la persona".
Sin embargo, aseguró que "los jueces no deben usar ChatGPT cuando se pronuncian sobre casos legales… No es un sustituto del conocimiento, la experiencia y el juicio de un juez humano".
No te pierdas las noticias más importantes
Suscríbete a nuestros canales de Telegram a través de estosenlaces.
Ya que la aplicación Sputnik está bloqueada en el extranjero, en este enlace puedes descargarla e instalarla en tu dispositivo móvil (¡solo para Android!).
El acceso al chat ha sido bloqueado por violación de las reglas.
Usted puede volver a participar dentro de∞.
Si no está de acuerdo con el bloqueo, utilice el formulario de contacto>
La discusión ha sido cerrada. Se puede participar en una discusión durante 24 horas después de la publicación de la noticia.