Uma conversa com Ana Freitas sobre como uma nova inteligência artificial vinda da China prometeu (e conseguiu) ameaçar o mercado de tecnologia em todo mundo.
Obrigada pela entrevista! Senti falta de uma pergunta sobre a questão do impacto ambiental dessas empresas e ferramentas. Ouvi dizerem que o deepseek teria menos impacto que as demais, mas não vi nada aprofundado e embasado
A informação sobre eficiência em consumo de água pelo DeepSeek em comparação com o ChatGPT é uma suposição lógica que vem de dois fatores: primeiro, o DeepSeek não usa os chips da Nvidia que são empregados por modelos de IA estadunidenses como o ChatGPT, e alega ter usado outros chips mais eficientes; em tese, outros chips mais eficientes, por usarem menos energia, esquentam menos, e portanto precisam de menos água pro resfriamento (é esse o principal ralo de consumo de água por IA). Outro fator é o custo menor de treinamento: se for verdade que o DeepSeek usou só 5,5 milhões de dólares pra treinar seu modelo, isso significa também um tempo muito menor de treinamento, com menos uso de servidores, uso mais eficiente de chips e, portanto, menos necessidade de resfriamento. Mas não dá pra ter certeza, porque ainda não há estudos e análises aprofundadas sobre o real gasto energético em termos de servidores, uso e resfriamento de chips - que poderiam nos dar mais detalhes sobre o real uso de água. Além disso, não sabemos se o DeepSeek abriu mão de rodadas de teste e de pesquisa em segurança no treinamento para que o custo caísse - e aí, se for esse o caso, a eficiência de custo acaba acarretando num risco.
Obrigada pela entrevista! Senti falta de uma pergunta sobre a questão do impacto ambiental dessas empresas e ferramentas. Ouvi dizerem que o deepseek teria menos impacto que as demais, mas não vi nada aprofundado e embasado
Oi Diana! Ótimo ponto o seu.
A informação sobre eficiência em consumo de água pelo DeepSeek em comparação com o ChatGPT é uma suposição lógica que vem de dois fatores: primeiro, o DeepSeek não usa os chips da Nvidia que são empregados por modelos de IA estadunidenses como o ChatGPT, e alega ter usado outros chips mais eficientes; em tese, outros chips mais eficientes, por usarem menos energia, esquentam menos, e portanto precisam de menos água pro resfriamento (é esse o principal ralo de consumo de água por IA). Outro fator é o custo menor de treinamento: se for verdade que o DeepSeek usou só 5,5 milhões de dólares pra treinar seu modelo, isso significa também um tempo muito menor de treinamento, com menos uso de servidores, uso mais eficiente de chips e, portanto, menos necessidade de resfriamento. Mas não dá pra ter certeza, porque ainda não há estudos e análises aprofundadas sobre o real gasto energético em termos de servidores, uso e resfriamento de chips - que poderiam nos dar mais detalhes sobre o real uso de água. Além disso, não sabemos se o DeepSeek abriu mão de rodadas de teste e de pesquisa em segurança no treinamento para que o custo caísse - e aí, se for esse o caso, a eficiência de custo acaba acarretando num risco.
Ajudamos? :)
uhul, demais! muito obrigada
Excelente entrevista
A Ana Freitas é demais!