🤷 # 83 El dilema de la confianza
Ya no hablamos solo de expertos humanos sentados en mesas de conferencias, discutiendo los pros y los contras de una elección. Hoy en día, tenemos a la inteligencia artificial (IA) tomando decisiones
¿Te gusta estar al día de las últimas novedades, tendencias y herramientas? ¿Quieres conocer cómo la transformación digital está cambiando la sociedad y las empresas? ¿Buscas inspiración, consejos y recomendaciones para innovar y crecer en el mundo digital?
Si la respuesta es sí, ¡esta newsletter es para ti!
Cada semana, te traemos una selección de contenidos prácticos, actualizados e interesantes, sobre la industria tecnológica, la Inteligencia Artificial, el Big Data, entre otros temas de relevancia mundial, mediante una propuesta diferencial, flexible, práctica y centrada en la experiencia.
En esta edición:
Un gran dilema
Strawberry
El coletazo de una detención
R.I.S.E
Pocas plazas
Tiempo de lectura: 7 min
📷 La imagen de la edición:
Prompt: A thought-provoking illustration depicting a woman facing a complex maze, with 'El dilema de la confianza en las herramientas de IA'written across the top. The woman is contemplating whether to trust or distrust a robotic hand extending towards her from the maze. The background is a blend of digital and traditional art, with a mix of geometric shapes and realistic elements. The overall ambiance of the image is introspective and invites the viewer to ponder the role and reliability of AI tools.
Herramienta: Ideogram
🧠 Brain Pulse:
El tema de la semana:
El dilema de la confianza
Para ninguno de nosotros es un secreto que desde hace unos años el acto de tomar decisiones ha cambiado drásticamente. Ya no hablamos solo de expertos humanos sentados en mesas de conferencias, discutiendo los pros y los contras de una elección. Hoy en día, tenemos a la inteligencia artificial (IA) tomando decisiones junto a nosotros, e incluso a veces, en lugar de nosotros. ¿Pero hasta qué punto podemos confiar en estos sistemas y herramientas?
Como señala el investigador en ética tecnológica Patrick Lin (del que os recomendamos esta charla: The ethical dilemma of self-driving cars), “la inteligencia artificial puede procesar información más rápido que cualquier ser humano, pero siempre estará limitada por los datos que le proporcionemos y los sesgos que no detectemos a tiempo”. Aquí reside el dilema: ¿Cómo equilibramos nuestra confianza entre la intuición humana y la precisión de las máquinas?
Un ejemplo claro lo podemos ver en el ámbito médico. Los sistemas de IA pueden analizar miles de radiografías y detectar patrones de cáncer que a un médico humano le costaría ver. Sin embargo, ha habido casos en los que estos sistemas fallan debido a datos insuficientes o erróneos. Es decir, las decisiones basadas en IA pueden ser un complemento valioso, pero depender completamente de ellas puede tener graves consecuencias.
Imagen generada con Microsoft Designer
Podríamos pensar en la IA y las diferentes herramientas como ese compañero nuevo en el trabajo que es increíblemente eficiente, pero al que aún no conoces lo suficiente como para confiar ciegamente en sus sugerencias. Un estudio de MIT Technology Review encontró que, aunque el 85% de las empresas ya usan IA o IA Generativa en alguna forma, más del 60% de los ejecutivos sienten cierta preocupación por los “puntos ciegos” que las máquinas podrían tener. Este es un claro reflejo de nuestra relación actual con estas tecnologías: fascinación y escepticismo.
La confianza con estas herramientas y su uso, como en cualquier relación, debe construirse con el tiempo. Al igual que un chef que sigue una receta, pero ajusta ingredientes según su experiencia, los humanos debemos trabajar con la IA, no en su sombra.
Este es un punto clave. Las mejores decisiones del futuro vendrán de una colaboración activa entre humanos y máquinas. A medida que la IA siga desarrollándose, nuestra habilidad para usar estos sistemas de manera crítica y reflexiva será fundamental.
El verdadero desafío para el futuro será encontrar el equilibrio adecuado. Gary Kasparov, el gran maestro de ajedrez derrotado por la IA de IBM Deep Blue en 1997, una vez dijo: “Las máquinas pueden calcular, pero no pueden soñar”. (quienes han estado en nuestras sesiones recordarán este ejemplo y el famoso modelo Centauro) Ese es nuestro poder: usar la lógica y, al mismo tiempo, permitirnos confiar en nuestra intuición, sabiendo que no siempre podemos predecirlo todo.
Mientras avanzamos, debemos preguntarnos: ¿hasta qué punto estamos dispuestos a confiar en ellas? Y, ¿cuándo debemos intervenir?
🗣️ Brain Bites:
Dos noticias rápidas que no te puedes perder:
— El nuevo modelo de Open AI que “piensa antes de responder”: o1
El nuevo modelo y algoritmo se dio a conocer extraoficialmente hace unos días bajo el nombre “Strawberry”.
El sistema ha sido entrenado mediante aprendizaje de refuerzo y utiliza “cadenas de pensamiento” que emulan el razonamiento humano, mejorando su habilidad para descomponer, corregir y simplificar consultas. Sin embargo, OpenAI reconoce que el modelo aún enfrenta desafíos, como errores o alucinaciones, y tiene una velocidad de respuesta más lenta que otros modelos previos.
A pesar de sus limitaciones, ha demostrado un mejor rendimiento en áreas como matemáticas, ciencias y codificación, superando a su predecesor GPT-4o. La empresa californiana espera que el nuevo modelo atraiga a inversionistas
El producto se encuentra disponible en dos versiones preliminares para los desarrolladores y los usuarios premium de ChatGPT.
Os dejamos una pequeña muestra de sus capacidades:
👀 Si queréis ver más: https://www.youtube.com/@OpenAI/videos
— El coletazo de una detección
El pasado 24 de agosto, el director ejecutivo de Telegram, Pável Dúrov, fue detenido por la policía francesa tras aterrizar en París. Aunque fue liberado, las autoridades impidieron su salida del país, alegando la falta de colaboración de Telegram en la moderación de contenidos relacionados con delitos como fraude, tráfico de drogas y crimen organizado. Dúrov, quien tiene nacionalidad francesa desde 2021, negó cualquier vínculo político con el Kremlin y aseguró que la plataforma es “independiente y políticamente neutral”.
La detención provocó que algunos ciberdelincuentes, que utilizaban Telegram como canal para sus actividades ilegales, comenzaran a borrar sus cuentas o trasladar sus contactos a otras plataformas como Signal, temiendo una mayor supervisión y posibles arrestos. Dúrov, por su parte, reconoció que la expansión masiva de Telegram, con 950 millones de usuarios, ha facilitado el abuso de la plataforma y aseguró que reforzará la moderación para enfrentar estos problemas.
🦾 Toolkit:
Una sección dedicada a compartir herramientas, recursos y aplicaciones útiles para la comunidad de Brain and Code
— ¿Conoces los frameworks de prompting? (V) - Framework R.I.S.E
Este framework está diseñado para guiar al modelo a través de tareas de manera sistemática, asegurando que siga un proceso paso a paso. Role-Input-Steps-Execution (RISE) es especialmente útil cuando necesitas estructurar el pensamiento de la IA y asegurar que cumpla con una secuencia lógica que produzca el resultado esperado.
Créditos imagen: ai prompt frameworks
Role (Rol):
Aquí defines el papel que debe asumir el modelo. Esto ayuda a la herramienta a ajustar su enfoque, tono y nivel de detalle según el contexto de la tarea.
Input (Entrada):
Proporciona el contexto o la información inicial que se necesita para abordar la tarea. Este paso es crucial para que el procesamiento sea relevante.
Steps (Pasos):
Aquí describes las acciones específicas que la IA debe seguir para completar la tarea. Estos pasos deben ser detallados y secuenciales, permitiendo avanzar con precisión.
Execution (Ejecución):
Define el resultado final esperado. Esto ayuda a guiar la salida de la IA para que el resultado cumpla con los requisitos específicos de la tarea.
Prompt Completo: "Asume el rol de un traductor especializado en documentos legales. El documento es un contrato de arrendamiento de propiedades que necesita ser traducido del inglés al español. Primero, traduce el texto. Luego, verifica que los términos legales se adapten al contexto jurídico español. Por último, resume las diferencias clave entre la versión original y la traducida. El resultado debe ser una traducción precisa y legalmente adecuada del contrato, con un resumen de las principales diferencias en terminología legal entre ambos idiomas."
El framework RISE puede aplicarse en una amplia variedad de tareas, donde el objetivo es que la IA siga un proceso definido y específico: Traducciones, creación de planes de negocio, desarrollo de contenidos, diseño de estrategias, optimización de diversos procesos, creación de manuales y guías de uso.
⚡ Corner:
Nuestra recomendación para esta semana:
— IndustrIA ed. III
Solo queremos recordaros: ¡Lanzamos la Edición 3 de IndustrIA!
Con precios (€) especiales para antiguos alumnos. Y muchas novedades:
Nuevos módulos de especialización: Postventa y Asistentes conversacionales.
Sesiones de tutoría
Update sessions: espacios para actualizar novedades tecnológicas.
Varios descuentos disponibles, acumulables:
Inscripción temprana: 10% (hasta el 20 de septiembre).
Grupos: 5% para grupos de 4 o más personas.
Referido: 5% para personas que vengan referidas por un antiguo alumno.
Alumni: precio especial para antiguos alumnos.
Bonificable por FUNDAE.
Arrancamos el 11 de octubre, 2024. No te quedes sin tu plaza: https://industria.school/
IndustrIA es el primer Programa Especializado en Inteligencia Artificial Generativa para la Empresa Industrial. Cuenta ya con más de 160 alumnos de más de 60 empresas industriales formados.
Muy interesante el framework RISE, en general el Chain-of-Thoughts con una ampliación de la ventana de contexto siempre mejora la calidad de los resultados 🥸