Una discusión reciente sobre los posibles peligros del software de código abierto (OSS) en la inteligencia artificial ha generado debate entre expertos. Se plantearon preocupaciones sobre la posibilidad de que el OSS sea mal utilizado por actores malintencionados, lo que podría conducir a consecuencias graves. Sin embargo, algunos argumentan que la evidencia actual no respalda estos temores, señalando que la mayoría de los usos dañinos de la IA han involucrado sistemas propietarios como OpenAI o Claude. Además, expertos en preparación para pandemias sugieren que el software y la secuenciación no son las principales limitaciones para abordar tales amenazas, desafiando la noción de que el OSS representa un riesgo único.