<…> "el uso una red neuronal" estaría bien saber como funciona una red neuronal para identificar o concluir la relación hacker/lavado/mezclador.
De hecho, en el estudio citan “the” neural network, lo cual es inexacto dado que hay múltiples redes neurales y no una. En todo caso, he visto que los autores del estudio son esencialmente rusos (con base operacional en Nueva York y Luxemburgo), por lo que ciertos matices lingüísticos pueden llevar a equívoco si uno no es nativo de la lengua en la cual escribe.
Es habitual ver el uso de Redes Neuronales en el campo de la modelización. De hecho, típicamente derivan modelos de predicción usando varias técnicas (Redes Neuronales, Regresión Logística, Árboles de Decisión, etc.), y se escoge el modelo resultante que más se acerca a la realidad.
En la modelización basada en estas técnicas, el principio base suele ser el mismo: extraer una (gran) cantidad de información, habitualmente con un eje de tiempo, limpiar la información, derivar variables semánticamente significativas, introducirlas en una herramienta modelizadora, probar cada variante algorítmica, y determinar qué modelo resultante es más certero. La premisa general suele ser la de estudiar unos antecedentes (datos históricos), para derivar unos consecuentes (o predicción). El modelo habitualmente se construye usando el 50% homogéneo de los datos disponibles, y el 50% restante se usa para ver si la proyección del modelo es correcta. Es importante definir claramente el acontecimiento que se quiere predecir.
Por ejemplo, un modelo de predicción del precio de Bitcoin (aquí simplifico notablemente) tomaría el 50% de los datos históricos para su construcción. El 50% restante se usaría para probar (test) el modelo. Dado que todos los datos son históricos en este punto, el modelo debería, si resulta bien hecho, “predecir” los resultados del 50% de test con buenos resultados. Como todos los datos que usamos en este punto son históricos (el 50% de modelización y el 50% de test), ya sabemos el resultado devengado en todos los casos; de ahí que el 50% de test pueda servir para medir la bondad del modelo, al saber los resultados que deben dar.
Una vez creado y validado el modelo, se adaptan los inputs del mismo para ya predecir el valor de BTC a futuro. En el momento de modelizar, habremos definido si queremos que el modelo defina el precio de mañana, la semana que viene, o el plazo vista que queramos. Un mismo modelo no prevé todos los plazos, sino que se afina para un objetivo concreto.
Dicho el rollo anterior, las Redes Neuronales es una de las técnicas anteriores, y se basa en crear una serie de nodos (hechos), vértices (antecedente-> consecuente) y pesos sobre los vértices. Con todo ello, como lo explicado en el ejemplo anterior, se intenta predecir una salida en base a unas entradas.
En el caso de Clain (la empresa que realizó el estudio), no se describen los detalles del modelo usado, aunque si hay algunas pinceladas explicadas en el artículo
https://blog.clain.io/applying-machine-learning-for-thorough-investigation-of-zaif-hack, donde se cita:
ChipMixer is a version of cryptocurrency mixing services that has a distinctive feature. To send out laundered funds, the mixer creates chips with nominal values of 0,001BTC; 0,002BTC; 0,004BTC; 0,008BTC and so forth up to 8,192BTC. By knowing that mixing transactions have strict value rules, we created the algorithms that quickly allowed us to spot the suspicious transactions with great confidence.
Más allá de la terminología asertiva que usan, parte de la base está en que Chipmixer genera salidas con valores en base binaria, y este hecho lo intentan utilizar como patrón a reconocer en el análisis del blockchain. Me da la sensación que están asociando a Chipmixer las transacciones clusterizadas de la red, en un intervalo de fechas dado, con los valores antes citados. A partir de ahí no soy capaz de comprender su técnica en detalle, y no veo claro el uso que han hecho de las Redes Neuronales.