A Lei de Goodhart afirma que "quando uma medida se torna um alvo, deixa de ser uma boa medida."
Em essência, se você tentar controlar algo focando em uma métrica específica, as pessoas vão otimizar para essa métrica, potencialmente minando o objetivo original.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
7 gostos
Recompensa
7
5
Republicar
Partilhar
Comentar
0/400
TokenGuru
· 08-22 11:49
Os idiotas agora têm a regra padrão, após inúmeras experiências de cair em armadilhas.
Ver originalResponder0
gas_guzzler
· 08-22 11:40
Estão todos a tentar controlar os resultados, então de que indicadores estamos a falar?
Ver originalResponder0
NightAirdropper
· 08-22 11:38
Os indicadores estatísticos quantitativos são todos armadilhas enganosas.
A Lei de Goodhart afirma que "quando uma medida se torna um alvo, deixa de ser uma boa medida."
Em essência, se você tentar controlar algo focando em uma métrica específica, as pessoas vão otimizar para essa métrica, potencialmente minando o objetivo original.
Isto leva frequentemente a