Imatges d’IA exageren la nevada a Kamtxatka (Rússia) i mostren la ciutat soterrada per la neu
La nevada històrica de Kamtxatka ha deixat varios metres acumulats de neu, però alguns dels vídeos virals d’IA exageren la situació
La nevada històrica de Kamtxatka ha deixat varios metres acumulats de neu, però alguns dels vídeos virals d’IA exageren la situació

Què s’ha dit?
Algunes imatges de la nevada de la península de Kamtxatka (Rússia) mostren la ciutat completament soterrada, amb molts metres de neu per damunt dels edificis.
Què en sabem?
Que la nevada a la ciutat de Petropàvlovsk ha estat històrica, d’entre 170 i 500 centímetres, i que algunes imatges i vídeos de piles de neu, edificis i vehicles soterrats són reals, però que alguns dels vídeos més virals estan generats amb IA i exageren la situació real.
Circulen a les xarxes centenars de vídeos de la ciutat de Petropàvlovsk-Kamtxatski, a la regió de Kamtxatka, a l’est de Rússia, després de les nevades històriques del desembre del 2025 i el gener d’aquest 2026. Entre les imatges reals, també s’han viralitzat molts vídeos i imatges generats amb intel·ligència artificial (IA) que exageren la situació de la ciutat i la magnitud de la nevada. Les imatges que mostren edificis residencials de més de deu plantes completament soterrats per la neu són FALSES.
Alguns d’aquests vídeos, que s’han viralitzat sobretot a TikTok, mostren acumulacions de neu que superen amb escreix blocs de pisos. En realitat, la premsa local informa de muntanyes de neu de fins a cinc metres que han deixat soterrades algunes plantes baixes. El rastreig d’altres imatges condueix a vídeos originals marcats amb l’etiqueta de la plataforma que assenyala continguts fets amb IA.
A Kamtxatka van caure fins a 5 metres de neu acumulats, no 100
Moltes imatges compatibles amb la IA mostren muntanyes de neu que superen l’alçada dels edificis i, fins i tot, soterren completament la ciutat. Segons informa la NASA, el desembre del 2025 van caure fins a 3,7 metres de neu en algunes ciutats de la península i, a principis de gener, uns dos metres més.
Alguns veïns compartien vídeos amb cinc metres de neu acumulats, segons va informar el mitjà rus independent Meduza, editat des de Letònia. La nevada ha provocat dues víctimes mortals, dos homes que van quedar sepultats per caigudes de neu des de les teulades dels edificis, segons ha informat la fiscalia de la regió de Kamtxatka.
La nevada història ha fet que la neu cobrís alguns dels pisos més baixos dels edificis, com mostren les imatges de mitjans internacionals com la BBC o Reuters, però en cap cas ha arribat als més elevats.
Per detectar imatges generades amb IA pot ser útil, en una primera instància, fer servir Image Whisperer, que ajuda a detectar rastres d’IA. Tot i això, les eines de detecció encara estan en fase de desenvolupament i tenen bastant marge d’error, així que no es recomana dependre’n exclusivament.
La falsa muntanya de neu que penja sobre la ciutat
Una de les imatges més virals mostra la ciutat de Kamtxatka completament soterrada per una muntanya de neu, que queda penjant sobre edificis d’almenys vuit plantes. Image Whisperer conclou que té aspectes reals, però presenta rastres de manipulació amb IA en la muntanya de neu i en els edificis.
Aquestes concentracions de neu no concorden en absolut amb les dades publicades a mitjans locals i agències internacionals, que parlen d’acumulacions fins a cinc metres d’alçada, en cap cas de 30 o 40 metres, com suggereixen aquestes imatges.

A més, a través de la cerca inversa no hem trobat que cap font oficial ni mitjà local l’hagi compartida, i una cerca de Google tampoc revela cap resultat similar gravat des d’un altre angle.
Murs de neu que cauen: un altre patró d’imatges creades amb IA
També s’han viralitzat vídeos de grans murs de neu desplomant-se, suposadament gravats des de finestres d’habitatges. Mitjançant la cerca inversa d’imatges, hem pogut identificar que aquests vídeos provenen d’un compte anònim que publica exclusivament contingut generat amb IA i que, abans de vídeos de Kamtxatka, compartia imatges d’animals.

A més, aquests vídeos no mencionen ni la regió de Kamtxatka ni la ciutat de Petropàvlovsk-Kamtxatski, i molts inclouen l’etiqueta “generat amb IA”, que pot ser afegida per la plataforma (com TikTok, en aquest cas) o pel mateix usuari.

Els tobogans de neu també són falsos
Un altre tipus de contingut viral mostra persones lliscant per tobogans de neu des del sostre dels edificis. L’anàlisi de les imatges permet observar característiques compatibles amb la intel·ligència artificial. A més, com hem explicat, no va caure prou neu per cobrir edificis sencers de diversos pisos.

Si observem les imatges, veiem que el pas de les persones per les suposades pistes de trineu no deixen cap rastre ni marca a part dels preexistents a terra. En analitzar les persones del fons de les imatges, moltes no estan ben definides, fan moviments poc naturals i rígids, i apareixen i desapareixen.
D’altra banda, amb la cerca inversa no hem trobat que cap font oficial ni mitjà local l’hagi compartit, i una cerca de Google tampoc revela cap resultat similar gravat des d’un altre angle.
L’anàlisi d’Image Whisperer apunta amb un alt grau de probabilitat que les imatges estan generades amb IA, si bé l’eina no és infal·lible i cal tenir en compte un marge d’error.
El retorn a la normalitat, també falsificat
Després que es declarés l’estat d’emergència al municipi el passat 16 de gener, com informa el govern del districte de Petropàvlovsk, i comencessin les tasques de retirada de la neu dels carrers, tant per part del govern com dels ciutadans, Kamtxatka intenta poc a poc recuperar la normalitat.
També sobre aquesta situació s’han viralitzat vídeos de cotxes circulant entre enormes murs de neu, aparentment generats amb IA.

L’alçada de les muntanyes de neu, un fanal sense llum o les petjades de vianants entre els cotxes que comencen i acaben de sobte són alguns dels elements que insinuen que el contingut ha sigut generat artificialment. Altres indicis són els moviments dels cotxes: no són propis d’una circulació habitual, no deixen la marca de les rodes sobre la neu, alguns apareixen i desapareixen de la imatge o es fusionen amb d’altres. Al fons de la imatge, els vehicles no estan definits amb precisió.
Segons l’anàlisi d’Image Whisperer, hi ha indicis de generació amb IA. Fins i tot en els casos en què l’eina classifica el contingut com a “real, però editat”, assenyala que elements com els murs de neu i els cotxes podrien ser artificials, amb el marge d’error inherent a qualsevol detector automatitzat.
Com podem identificar vídeos generats amb IA?
Les aplicacions d’intel·ligència artificial generativa han millorat molt la seva capacitat de crear imatges de molta qualitat, res a veure amb les mans amb set dits, o les persones amb tres braços, que produïen en els seus inicis. En molts casos, pot semblar pràcticament impossible distingir-les d’una fotografia real.
Tot i que ara per ara no hi hagi una fórmula infal·lible per distingir una imatge IA d’una real, hi ha una sèrie de detalls visuals que ens poden ajudar a decidir si ens en refiem o no. La intel·ligència artificial és capaç de generar contingut a partir dels patrons que “aprèn” d’altres fonts, que barreja i unifica per crear una sola imatge. Aquest procés pot portar a errors o tendències que ens permeten identificar-la.
A banda d’aquest estudi visual, ens podem ajudar d’aplicacions que analitzen les imatges. Tot i que cap d’elles és infal·lible i es poden equivocar, poden ser un element útil per a prendre una decisió. Finalment, sempre és bona idea contrastar la imatge que volem verificar amb les informacions que han publicat fonts confiables.
Aquestes són algunes observacions que podem fer si sospitem que una imatge és feta amb intel·ligència artificial:
- Té etiquetes com “generat amb IA”, “creat artificialment” o “falsificat”. En alguns casos, els usuaris declaren l’origen de les imatges i, en d’altres, les plataformes detecten la IA i posen elles l’etiqueta.
- Hi ha detalls massa borrosos, deformats o incoherents, com objectes mal definits, cares estranyes o textos il·legibles.
- El que veiem contradiu les lleis de la física o la lògica, per exemple, tobogans de 30 metres, muntanyes de neu amb aspecte de glacera en un entorn urbà, ombres impossibles o objectes que apareixen i desapareixen.
- L’escena no té sentit en el context en què se situa (lloc, clima, infraestructura, moment temporal).
- Aquestes imatges no l’ha compartit cap font de referència com mitjans de comunicació o institucions acreditades.
- L’escena no coincideix amb cap notícia contrastada publicada per mitjans o perfils fiables sobre aquest fet.
- Els detectors de contingut generat amb IA poden aportar pistes útils, però no són infal·libles i cal contrastar-ne els resultats!