Podcast
El trifecta digital: usando IA para velocidad, agilidad y ética
Zane Homsi, gerente de producto de IA en LinkedIn, se une a nosotros para discutir el enfoque centrado en el ser humano para el desarrollo de productos y la importancia de principios claros en los productos.

Listen to full conversation with Zane now!
Tell us a little bit about yourself, your background, and your current role at LinkedIn?
Como gerente de producto de IA en LinkedIn durante casi cinco años, he tenido el privilegio de trabajar en diversas líneas de negocio, incluidos software como servicio, medios y segmentos de consumidores. Mi experiencia me ha dado una comprensión más profunda de las complejidades de las operaciones de las empresas tecnológicas. En este momento, mi enfoque está en desarrollar aplicaciones de inteligencia artificial para mejorar las estrategias de comercialización de LinkedIn, específicamente dirigidas a ventas, soporte al cliente y otros puntos de contacto con los clientes para empresas tecnológicas y empresariales.
One of the biggest concerns around advancements in AI is the potential for misuse. How do you see innovation combating fraud?
It’s one of the most terrifying changes that I think AI will bring about. Scammers are already exploiting AI, an example of this might be mimicking voices to deceive vulnerable groups. Companies like Veriff and Clear are tackling this, aiming to keep the internet safe. Trust is crucial, whether that’s in online transactions or identity verification. We pride ourselves on being voted the most trusted social network on the internet. As AI evolves, so do fraudsters’ tactics, but innovation, like online identity verification, offer hope in the fight against fraud.
Are you seeing more user caution on social platforms in light of rising fraud online numbers?
Definitely. Users, rightly, demand value and trust. Even in financial services, like Wealthfront, referrals balance trust and convenience. Trust varies, from robust verification like Veriff to anonymous platforms. The level of trust needed depends on the platform’s purpose. For instance, at LinkedIn we need high levels of trust due to the sensitivity of job applications. It’s up to leaders to navigate this trust spectrum.
What predictions do you have for LinkedIn and the various products that are developing there but also in the wider AI space?
Comenzaré con las predicciones de las que estoy más seguro, primero, creo que la identidad se volverá digital primero, haciendo que las identificaciones físicas sean redundantes. En segundo lugar, la educación se transformará a medida que el aprendizaje se vuelva más personalizado. En tercer lugar, la carrera armamentista de la IA se estabilizará a medida que los proveedores de la nube ofrezcan modelos estandarizados. Finalmente, me gustaría pensar que los dobles digitales mejorarán la productividad, habilitando asistentes de IA personalizados para todos.
How do you ensure a human-centric approach to product development?
In the past, product development involved controlling user experiences through design. With AI, we lose that control as every user interacts with platforms differently. This makes human-centered design more challenging. To tackle this, clarity on product principles is crucial. There’s a fantastic executive at LinkedIn named David Vombray, who works on our business development and partnerships team, he has a great way of thinking about principles: think about all of the worst case scenarios and what you would need to do to avoid those from happening. It’s very similar to Charlie Munger’s Thinking by inversion principle.
At LinkedIn, our number one principle is responsible AI: ensuring our AI is vetted to prevent harmful outcomes. To summarize, I would say to ensure human-centered design, you must define clear product principles and then implement safeguards for AI alignment.
Practically, how do you implement these principles, especially across diverse teams like UX design, developers, and business stakeholders? Is a feedback loop the key, and if so, how do you ensure it’s effective?
Creo que ningún usuario realmente se preocupa por el 90% de los productos tecnológicos que utilizan. Les importa los objetivos que un producto les ayuda a alcanzar más que el producto mismo. En LinkedIn, somos afortunados de tener un equipo dedicado a representar los intereses de los usuarios. Por ejemplo, considera un pequeño negocio que utiliza anuncios de LinkedIn. Solo quieren clientes potenciales y ingresos, no las complejidades del marketing. Así que lanzamos Accelerate, simplificando la creación de anuncios a través de la IA. Cada equipo involucrado en este proceso tiene sus propios mecanismos de retroalimentación. Metas claras, seguimiento y medición aseguran que se obtengan ideas y que las mejoras se realicen de manera iterativa. Dicen que se necesita una aldea, y realmente se necesita, pero alinearse sobre qué ideas buscar y cómo medirlas nos permite mejorar continuamente.
How do you balance speed, agility, and ethics in product development?
Todo comienza con entender los incentivos que impulsan las decisiones. Los individuos priorizan sus propios incentivos, que luego se propagan hacia afuera. Una startup puede priorizar lanzamientos rápidos de características para atraer inversores, mientras que una gran corporación podría priorizar la estabilidad debido a las repercusiones de realizar cambios. Principios claros guían la toma de decisiones; piénsalo como una lista de verificación previa al vuelo: ¿cumple esto con IA responsable? ¿gana esto la confianza de nuestros miembros? ¿es este un diseño simple? Todas estas características aseguran que el producto que estás enviando sea de calidad. Cada gerente de producto tiene su propia fórmula secreta sobre cuáles son los principios prioritarios que les importan. Mis dos principales son la seguridad y la IA responsable. Al final, el objetivo es asegurarse de que los productos se prueben y midan en función de las expectativas de los usuarios antes de su lanzamiento.
Do you think frameworks and ethical considerations are necessary in AI?
Definitivamente. La IA no siempre es la respuesta; a veces, las tecnologías deterministas son mejores. Aprender de la academia y la industria es vital a medida que la tecnología evoluciona rápidamente. Por ejemplo, nuestro proyecto de chatbot tuvo que adaptarse cuando surgieron nuevas tecnologías de IA. Los desafíos de Google destacan la importancia de navegar la IA de manera ética. Estamos manteniéndonos informados, colaborando y enfocándonos en prácticas éticas de IA.
Please note that the views expressed in this episode belong to Zane and not the organization – LinkedIn. The interview has been edited for length and clarity.

VERIFF VOICES
Escucha la conversación completa con Mike y explora más episodios del pódcast Veriff Voices.