En otros tiempos resolver dudas académicas se trataba de buscar el momento oportuno para hacerle preguntas a tu profesor. Muchas veces esperábamos hasta el final de la clase para hacerlo, teniendo que esperar también a que otros compañeros satisficieran las suyas. En este contexto, el proceso de aprendizaje era un poco más lento, pero tal vez mucho más dinámico, porque animaba a interactuar con personas reales, que es algo que tiene mucho valor en ciertos sentidos, y creo que es lo que más preferiría.
Aunque a veces no tenemos otra que recurrir exclusivamente a lo digital. En algunos cursos, las materias se realizan totalmente on-line, por medio de plataformas de videollamadas, o en raros casos, utilizando la plataforma de la universidad, haciendo que todo se vuelva una suerte de estudio autodidacta (obviamente con el material dado por la cátedra). Es por esta razón que estuve pensando cómo precisar mi aprendizaje, y llegué a la conclusión de que podría no solo preguntarle a la IA sobre el material dado, sino crear aplicaciones para poder hacer las prácticas con una mayor variedad de situaciones. Estas herramientas te pueden llegar a ofrecer distintas formas de ver algo que no veías, por medio de la simulación.
No es por nada, pero he estado escuchando que Claude es mágico en cuanto al código. De hecho, me animé a testearlo creando aplicaciones para uso propio. Efectivamente puedo decir que es muy superior a la competencia; al menos con prompts medianamente elaborados. La siguiente imagen es de una aplicación de práctica de subrutinas en RISC-V.
In the past, clearing up academic doubts meant finding the right moment to ask your teacher a question. We often waited until the end of class to do so, having to wait for other classmates to get their questions answered as well. In this context, the learning process was a bit slower, but perhaps much more dynamic, because it encouraged interaction with real people—something that is very valuable in certain ways—and I think that’s what I would prefer most.
Although sometimes we have no choice but to rely exclusively on digital methods. In some courses, classes are conducted entirely online, via video-calling platforms, or in rare cases, using the university’s platform, turning everything into a sort of self-directed study (obviously using the material provided by the department). That’s why I’ve been thinking about how to refine my learning, and I came to the conclusion that I could not only ask AI about the assigned material but also create applications to practice with a wider variety of scenarios. These tools can offer you different ways of seeing something you didn’t see before, through simulation.
I don't mean to brag, but I've been hearing that Claude is a real whiz when it comes to coding. In fact, I decided to test it out by creating some apps for my own use. I can definitely say it's far superior to the competition—at least when it comes to moderately complex prompts. The image below shows an app for practicing RISC-V subroutines.

Al parecer, Claude logra entender mejor mis solicitudes. También piensa en qué cosas me harán más eficaz el aprendizaje, por lo que pueden aparecer cosas que yo no le he pedido y que igualmente me benefician. Probé pasarle el mismo prompt a Gemini en su versión Pro, y si bien crea la aplicación, se siente como si le faltara algo o si tuviera que mejorar las instrucciones que le doy a este modelo.
Generalmente les pido que cree una aplicación intuitiva para practicar ejercicios que hayan sido tomados en parciales o ejercicios de la guía, pero que estos tengan los campos para completar. También suelo pedir que la aplicación resuelva el ejercicio lo más parecido a como lo han tomado, como para ver cómo funciona el algoritmo, los ciclos, las llamadas, etc. Esto último es útil para tener una idea mental de cómo se mueven las instrucciones a lo largo del programa; que justamente es algo que debes imaginar en el examen. Eso sí, lo que además tienes que hacer es profundizar en el razonamiento, que es por eso que suelo pedir también las referencias sobre instrucciones; qué hacen, cómo se formula, y cuál es más conveniente.
It seems that Claude is better at understanding my requests. It also thinks about what will make my learning more effective, so it might suggest things I haven’t asked for but that still benefit me. I tried giving the same prompt to Gemini’s Pro version, and while it creates the app, it feels like something is missing or like I need to improve the instructions I give this model.
I usually ask it to create an intuitive app for practicing exercises taken from midterms or the study guide, but with fields to fill in. I also often ask the app to solve the exercise as closely as possible to how it was originally presented, so I can see how the algorithm, loops, and function calls work. The latter is useful for getting a mental picture of how the instructions flow through the program—which is exactly what you need to visualize during the exam. Of course, you also need to delve deeper into the reasoning behind it, which is why I usually ask for references regarding the instructions: what they do, how they’re formulated, and which one is more appropriate.

Tal vez siento que Gemini me da servido el ejercicio y las respuestas en el mismo error. Es cuestión de mejorar el prompt, lo sé, pero debería poder interpretar el rol que le he pedido en el inicio (un Gem), y es algo que se lo remarco siempre, cuando Claude parece que lo tiene asumido desde un principio.
De igual forma, ambos tienen sus pro y contras, por lo que creo que Claude me podría servir más para la simulación y Gemini para la puesta en práctica llenando campos. En explicación de conceptos ambos son muy buenos, pero está a la vista lo que puede crear Claude en una simple instrucción.
Gracias a esta nueva forma de estudiar y practicar, he aprobado recientemente un final que tenía pendiente, no con la nota más alta que quería porque suelen cambiar bastante los ejercicios de final respecto a los de parcial, pero al menos sumé una más a la lista de materias aprobadas. Tal vez siga usando estas herramientas que creé con IA para poder profundizar en lo que me faltó mejorar y entender con más detalle la materia que cursé. Sin dudas es fascinante, y se trata de una buena forma de encarar algo que te apasiona.
Maybe I feel like Gemini keeps giving me the same exercise and the same answers for the same error. I know it’s just a matter of improving the prompt, but it should be able to play the role I asked it to from the start (a Gem), and that’s something I always point out to it, whereas Claude seems to have got it right from the beginning.
Similarly, both have their pros and cons, so I think Claude might be more useful for simulation and Gemini for practical application when filling in fields. Both are very good at explaining concepts, but it’s clear what Claude can create from a simple instruction.
Thanks to this new way of studying and practicing, I recently passed a final exam I had pending—not with the highest grade I wanted, since final exams tend to differ quite a bit from midterms, but at least I added one more to the list of passed courses. I might continue using these tools I created with AI to delve deeper into the areas I need to improve and understand the course material in greater detail. It’s undoubtedly fascinating, and it’s a great way to approach something you’re passionate about.

- Capturas de pantallas hechas por mí desde las aplicaciones creadas con Claude y Gemini Pro.
- Traducción al inglés con DeepL.
▶️ 3Speak