Reporte Estratégico: Nova Subnet 68 en Bittensor

Objetivo Técnico

Nova Subnet 68, desarrollada por Meta Nova Labs, es una subred especializada en descubrimiento de fármacos mediante inteligencia artificial descentralizada. Su objetivo principal es acelerar y democratizar la identificación de moléculas terapéuticas eficaces, resolviendo dos problemas críticos de la industria farmacéutica tradicional:
● Tiempo y costo elevados: Los métodos convencionales requieren más de 10 años y miles de millones de dólares por fármaco aprobado.
● Limitaciones en la exploración química: Menos del 0.001% del espacio químico teórico (estimado en 10^60 moléculas) ha sido explorado.
Meta Nova aborda estos desafíos mediante un ecosistema descentralizado donde mineros compiten para identificar moléculas con alta afinidad de unión a proteínas objetivo, utilizando la base de datos SAVI 2020 (1.75 billones de moléculas sintetizables) y el modelo determinista PSICHIC para validación. Este enfoque reduce drásticamente ciclos de investigación y permite explorar regiones inaccesibles para laboratorios centralizados.

Arquitectura Técnica


La arquitectura de Nova Subnet 68 se estructura en tres capas interconectadas:
a) Capa de Minería
● Mineros: Nodos especializados en ejecutar algoritmos de búsqueda (ej. docking molecular, redes generativas) para proponer moléculas candidatas.
● Incentivos: Recompensas en TAO (token de Bittensor) basadas en la calidad de las moléculas identificadas.
b) Capa de Validación
● Validadores: Evalúan las moléculas mediante PSICHIC, un modelo determinista que calcula la afinidad de unión proteína-ligando. A diferencia de métodos estocásticos, PSICHIC garantiza reproducibilidad, crítico para aplicaciones farmacéuticas.
● Mecanismo de Consenso: Combina proof-of-stake (PoS) con puntuaciones técnicas para evitar sesgos y ataques Sybil.
c) Integración con Bittensor
● Interoperabilidad: Utiliza la infraestructura de Bittensor para consenso distribuido, seguridad criptográfica y distribución de recompensas.
● Base de Datos SAVI 2020: Alberga 1.75 billones de moléculas virtuales sintetizables, filtradas por parámetros de drug-likeness (reglas de Lipinski, solubilidad, toxicidad predictiva).
Esta trifecta técnico-económica crea un mercado abierto para el descubrimiento de fármacos, donde la competencia entre mineros optimiza la exploración del espacio químico.

Equipo y Recursos


Aunque Meta Nova Labs mantiene perfiles de equipo no identificados públicamente, su capacidad técnica se infiere de:
● Whitepaper: Detalla algoritmos, flujos de trabajo y estándares farmacéuticos (ej. cumplimiento con guías ICH). Enlace: https://www.metanova-labs.com/whitepaper.
● GitHub: Repositorios con contratos inteligentes para validación y módulos de integración con SAVI 2020. Enlace: https://github.com/metanova-labs.
● Comunicaciones: Actividad en Twitter (@metanova_labs) centrada en avances técnicos y alianzas en bioinformática.
Se presume experiencia multidisciplinaria en:
● Bioinformática estructural: Diseño de PSICHIC y curación de SAVI 2020.
● Blockchain: Integración avanzada con Bittensor y mecanismos de incentivos.
● Machine Learning: Optimización de redes neuronales para generación molecular.

TAM y Mercado


El mercado global de descubrimiento de fármacos supera los $100 billones anuales, con segmentos clave:
● Big Pharma: Empresas como Pfizer o Roche, con presupuestos de R&D de $10-20 billones anuales.
● Biotechs: Startups que externalizan etapas tempranas (ej. cribado virtual) a costos de $1-5 millones por objetivo.
● Enfermedades desatendidas: Meta Nova podría reducir barreras para investigar patologías con mercados pequeños (ej. enfermedades raras).
Estrategia de Penetración:
● Modelo B2B: Licenciamiento de moléculas validadas a farmacéuticas.
● Modelo Freemium: Acceso gratuito a datos básicos para universidades, con suscripciones premium.
● Tokenización: Moleculas valiosas podrían representarse como NFTs, creando un mercado secundario.

Ventajas Competitivas vs. Métodos Tradicionales

Ventajas Clave:
● Reducción de 99.9% en costos frente a HTS (High-Throughput Screening).
● Acceso a moléculas novedosas: El 98% de SAVI 2020 no está patentado.
● Resistencia a censura: Gobiernos o corporaciones no pueden restringir investigaciones en la red.

Calidad Técnica


La robustez de Meta Nova se evalúa en tres dimensiones:
a) Modelo PSICHIC
● Determinismo: Elimina variabilidad en validaciones, crucial para estudios preclínicos.
● Benchmarks: Según el whitepaper, PSICHIC alcanza un RMSE de 1.2 kcal/mol vs. datos experimentales (PDBbind), superando a AutoDock Vina (RMSE 2.3).
b) Base de Datos SAVI 2020
● Cobertura: Incluye moléculas de 18 scaffolds químicos prioritarios (ej. benzimidazoles, piridinas).
● Filtros: Elimina compuestos con riesgo de toxicidad o inestabilidad metabólica.
c) Integración con Bittensor
● Rendimiento: La subnet procesa >1 millón de moléculas/día, con latencia <2 minutos por validación.
● Seguridad: Cifrado homomórfico protege datos sensibles (ej. estructuras proteicas bajo NDA).
Riesgos Técnicos:
● Sesgo en PSICHIC: Si el modelo no generaliza a nuevas clases de proteínas.
● Sintetizabilidad: Aunque SAVI 2020 prioriza moléculas sintetizables, el 15% podría requerir rutas complejas.

Conclusión

Nova Subnet 68 representa un cambio de paradigma en el descubrimiento de fármacos, combinando IA, blockchain y química médica. Su propuesta de valor radica en:
● Eficiencia sin precedentes: Ciclos de investigación de semanas vs. años.
● Democratización: Universidades y países en desarrollo acceden a tecnología de punta.
● Sostenibilidad económica: Reducción de capital riesgo para biotechs.
Para consolidarse, Meta Nova debe:
● Validar hit molecules en colaboración con laboratorios independientes.
● Atraer mineros especializados (ej. empresas de computación cuántica).
● Implementar gobernanza para conflictos éticos (ej. patógenos de doble uso).
En un mercado donde el 90% de los candidatos clínicos fallan, Nova Subnet 68 ofrece un filtro cuántico-electrónico para priorizar los mejores candidatos, posicionándose como un pilar crítico para la próxima generación de terapias.

simioape telegram bittensoresp

Barry Silbert “YUMA”

Me presenté a mi primera entrevista pública en cuatro años. Fue un placer ponerme al día con @RaoulGMI y hablar sobre la historia de DCG, dónde estamos invirtiendo y construyendo, y por qué estoy tan entusiasmado con Bittensor $TAO y nuestra nueva empresa @YumaGroup

Consejo TAO de CreatorBid

Hoy dimos un paso audaz y nos entusiasma compartirlo con el mundo. CreatorBid ha creado un Consejo TAO, un organismo descentralizado para apoyar a los agentes de IA basados ​​en subredes TAO.

Estamos profundamente alineados con el ecosistema TAO. Casos de estudio como @aion5100 (SN 6) y @thedkingdao (SN 44), que lanzaron agentes en CreatorBid, ya han generado más de $1 millón en fondos de tesorería gracias a nuestro mecanismo de impuesto sobre las ventas automatizado del 2%.

Ningún otro ecosistema apoya a los desarrolladores como nosotros do. Por eso hemos creado el Consejo de TAO, para guiar y apoyar la innovación de TAO y conectar a los agentes desarrolladores con las redes sociales.

El Consejo:

  • Votar ideas/conceptos para nuevos agentes relacionados con TAO que tengan mayor potencial para obtener una subvención CreatorBid
  • Apoyar a los futuros constructores de TAO con asesoramiento, efectos de red y sinergias de constructores.

La composición actual del Consejo incluye miembros de los equipos
@aion5100, @thedkingdao, @Shogun__base, @michaeltaolor y CreatorBid. Se añadirán más puestos para otras redes sociales y partes interesadas relevantes de Bittensor a medida que el ecosistema crezca.

Si pertenece a una subred que está lista para brindar servicios a la próxima generación de agentes de IA, contáctenos y únase a nosotros.

https://twitter.com/CreatorBid/

Un artículo reciente de Forbes destacó a Bittensor como un protocolo líder en IA descentralizada

Bittensor: La Vanguardia de la Infraestructura Descentralizada de IA


A medida que la inteligencia artificial adquiere cada vez mayor importancia en la economía digital global, las alternativas descentralizadas comienzan a desafiar el dominio del desarrollo de IA liderado por las empresas.

Entre las más prometedoras se encuentra Bittensor, una red de aprendizaje automático basada en blockchain que permite a cualquier persona contribuir y beneficiarse de la innovación en IA.

Según Coinbase, la red ofrece una tasa de recompensa anual estimada del 17,52 %, lo que la convierte en una plataforma tecnológica de vanguardia y una atractiva oportunidad económica.

Red de IA entre pares impulsada por blockchain


Bittensor funciona como una plataforma de IA entre pares y blockchain, lo que permite la creación, evaluación y monetización de productos digitales como la inferencia, el entrenamiento y el almacenamiento de IA.

Una innovación fundamental de Bittensor es su arquitectura de subred: comunidades modulares e independientes dentro de la red que se centran en productos digitales específicos.

Las subredes impulsan la economía de IA de Bittensor con incentivos flexibles de TAO

Cada subred opera de forma autónoma, estableciendo sus propias estructuras de incentivos y parámetros de rendimiento. Los contribuyentes, conocidos como mineros, compiten para resolver tareas relacionadas con la IA, desde la traducción hasta la inferencia de grandes modelos de lenguaje. Sus resultados son evaluados por validadores, quienes califican la calidad de cada envío.

Seth Bloomberg, socio inversor de Crucible Labs, declaró a Forbes: «Crucible actúa como un validador, no como una subred, a diferencia de las subredes centradas en la inferencia, como Manifold o Chutes».

Si bien las subredes garantizan la precisión de los datos y el rendimiento del modelo, Bloomberg enfatizó que el contenido dañino o ilícito debe moderarse en la capa de aplicación.

También señaló que no existe ninguna ventaja inherente en ser una subred temprana, especialmente tras la actualización de Dynamic TAO, que permite que el mercado abierto determine el valor de cada subred.

Anteriormente, todas las recompensas se distribuían exclusivamente en tokens TAO. Con la introducción de Dynamic TAO, cada subred ahora cuenta con su token único, que los mineros reciben como recompensa.

Bloomberg afirma que, actualmente, Bittensor alberga más de 80 subredes, desde proyectos experimentales que perfeccionan sus mecanismos de incentivos hasta sistemas maduros que generan ingresos activamente y sirven a los usuarios finales.

Las recompensas se basan en el trabajo útil de la IA, no en la potencia de hash


Este modelo redefine el significado de “minar” en el contexto de la cadena de bloques.

En lugar de validar bloques mediante rompecabezas criptográficos, como en Bitcoin, los mineros de Bittensor producen trabajo digital tangible y valioso.

Los incentivos económicos son sustanciales. Con la emisión diaria de TAO, los participantes, que incluyen mineros, validadores y creadores de subredes, pueden obtener ingresos reales gracias a sus contribuciones.

La participación se basa en el mérito.

Quienes tengan un rendimiento inferior al esperado podrían ser dados de baja y obligados a reingresar al sistema. Esto garantiza que el rendimiento, y no el capital ni la autoridad central, determine el éxito.

Según el informe técnico de Bittensor, el sistema incluye sólidas protecciones contra la colusión y la manipulación. Las recompensas se distribuyen según clasificaciones consensuadas. Esto recompensa únicamente a los pares cuyas evaluaciones coinciden con las de la red general.

Alternativa descentralizada a la IA a gran escala


A medida que la IA descentralizada cobra impulso, Bittensor destaca por su transparencia, apertura y potencial para democratizar el acceso al aprendizaje automático.

A diferencia de plataformas centralizadas como OpenAI o Google, donde el acceso es restringido y el desarrollo se realiza a puerta cerrada, Bittensor facilita la colaboración global mediante un protocolo de código abierto.

Ante la creciente preocupación por las dificultades éticas y regulatorias de la IA centralizada, que van desde la privacidad de los datos hasta el control monopolístico, el modelo de Bittensor ofrece una alternativa convincente.

A medida que el protocolo continúa evolucionando, promete escalar la inteligencia de forma descentralizada y garantizar que la propiedad y los beneficios de la IA permanezcan en manos de la mayoría, no de unos pocos.

https://www.forbes.com/

Manifold 2.0: Piensa en grande

Piensa en grande

2024 fue un año decisivo para Manifold. Superamos la volatilidad, aprendimos lecciones valiosas y emergimos con una convicción más profunda tanto en nuestra misión como en el potencial de Bittensor. Llegamos a 2025 más alineados, con más experiencia y más centrados que nunca. Manifold 2.0 representa el comienzo de ese nuevo capítulo.

Creemos que los protocolos más potentes son aquellos que finalmente desaparecen, donde la experiencia del usuario habla por sí sola y la infraestructura realiza el trabajo silenciosamente. Nuestra misión es convertir Bittensor en ese tipo de protocolo. Y para lograrlo, debemos pensar a lo grande.

Del protocolo al producto

Desde nuestra fundación en 2023, gran parte de nuestro enfoque se ha centrado en el ámbito interno de Bittensor. El diseño de subredes, el modelado de incentivos y la experimentación a nivel de protocolo consumieron gran parte de nuestra energía. Este trabajo sentó las bases de la Subred 4, que coordina clústeres anónimos de computación para ofrecer inferencia en tiempo real a través de Targon. Al momento de escribir este artículo, los mineros de Targon pueden permitirse aproximadamente 1400 H200 al día. Esto nos sitúa en el terreno de los hiperescaladores, a la par de las empresas de IA de primer nivel que han recaudado importantes cantidades de capital de riesgo.

Targon comenzó como una prueba de concepto. Ahora es una plataforma de inferencia de nivel de producción que permite a miles de usuarios acceder a modelos potentes a menor costo y mayor velocidad. Con el lanzamiento de la Versión 6, presentamos computación confidencial: privacidad de nivel empresarial a través de nuestra infraestructura descentralizada.

Para los desarrolladores de modelos, las redes distribuidas actuales no ofrecen protección para las ponderaciones privadas de los modelos. Para los consumidores empresariales, estas redes exponen todos los datos, lo que permite que cualquier participante observe información potencialmente confidencial. Como resultado, las empresas no han podido aprovechar la IA más económica y escalable que ofrecen redes como Bittensor. Todo esto cambia hoy.

Centralización del valor, no de la infraestructura

Como todos los proyectos de Bittensor, Manifold se ha beneficiado de la persistente inflación de TAO. Esto no es una debilidad, sino una característica de cualquier red en sus inicios. Al salir de esta fase de arranque, comprendemos la importancia crucial del diseño intencional para construir un ecosistema sostenible.

En las empresas tradicionales, los productos de oferta son esenciales. Productos como Google Chrome son gratuitos no porque no sean importantes, sino porque aportan valor a otras áreas. Bittensor no es la excepción. Algunas capas de Targon podrían no ser directamente rentables, pero son estratégicamente cruciales para la salud de nuestro sistema.

Por eso, estamos desarrollando Targon para que admita múltiples funciones principales: inferencia, preentrenamiento, posentrenamiento e investigación. Todo dentro de una única superficie alineada con los valores.

Las subredes independientes pueden cumplir importantes propósitos experimentales. Sin embargo, con el tiempo, distribuir demasiado el valor corre el riesgo de debilitar los cimientos que intentamos construir. Creemos que consolidar la funcionalidad clave en SN4 maximiza nuestras posibilidades de durabilidad a largo plazo.

Presentamos Manifold 2.0

Esta semana, presentamos una nueva generación de productos, cada uno diseñado para mostrar las posibilidades de Bittensor y, al mismo tiempo, ofrecer una utilidad real a los usuarios. Presentaremos un nuevo producto cada día.

Informe técnico del Targon V6 : disponible ahora

Targon ahora es más rápido, más seguro y está más preparado para la producción que nunca. La Máquina Virtual de Targon (TVM) garantiza la confidencialidad de los pesos de los modelos propietarios y su ejecución se realiza únicamente en entornos certificados y criptográficamente seguros.

Sybil – Martes, 2 p. m. CT

Sybil es nuestro motor de búsqueda descentralizado rediseñado. Ahora cuenta con una interfaz rediseñada, compatibilidad con múltiples modelos y una experiencia de usuario considerablemente mejorada. Desarrollado íntegramente por Targon, Sybil es rápido, intuitivo y con diseño nativo de IA.

Tao.xyz + Extensión – Miércoles, 14:00 CT

Tao.xyz es un panel de control enfocado en cualquier persona activa en Bittensor. Considérelo como la Terminal Bloomberg para operadores de subredes, validadores, mineros y todos los titulares de TAO. Filtra el ruido y muestra la señal más importante.

Para acompañar a Tao.xyz, lanzamos una extensión ligera para el navegador. Permite cambiar fácilmente entre validadores de subred y facilita la navegación por el ecosistema Bittensor.

Targon.com Refresh + V6 – Jueves, 14:00 CT

La Máquina Virtual Targon (TVM) establece un marco informático seguro y confidencial, diseñado específicamente para cargas de trabajo de IA, que proporciona una sólida certificación de hardware y GPU mediante la integración con el SDK nvTrust de NVIDIA. Al garantizar la confidencialidad y la integridad, TVM permite una monetización fiable de los modelos de IA, impulsando mercados de IA seguros y descentralizados.

Mirando hacia el futuro

Creemos que tenemos una pequeña oportunidad para construir el primer laboratorio de IA fronteriza descentralizada del mundo. Esto implica construir una plataforma integral: computación descentralizada, investigación de alto nivel y productos premium para el usuario. Esto nos permitirá resolver los desafíos tecnológicos más complejos y, si tenemos éxito, tenemos el potencial de desempeñar un papel importante en el inicio de una utopía de IA general para toda la humanidad. Como siempre, gracias por su continuo apoyo. Estamos muy entusiasmados con Manifold 2.0, ya que pensamos a lo grande y consolidamos Bittensor.

https://www.manifold.inc/releases/Manifold-2.0_Think-Bigger

Chutes API

Actualmente, Chutes está duplicando (sí, leyó bien) el volumen de tokens de TODOS LOS DEMÁS PROVEEDORES en
OpenRouterAI al 26 de marzo de 2025.

Esto se ve facilitado por el hecho de que hemos brindado soporte para el último modelo de deepseek_ai desde menos de una hora después de su lanzamiento en HuggingFace.

De hecho, cualquiera podría haber implementado este modelo en segundos; todo lo que se necesita es una cuenta gratuita de Chutes y un depósito de desarrollador para comenzar.

No somos solo un proveedor de inferencias. Somos la plataforma integral para computación de IA sin servidor. Implementa cualquier modelo (o aplicación) de IA en segundos. Y esto es solo el comienzo.

https://twitter.com/rayon_labs/status/1904937079315845442

Diferencia entre Chutes (64) y Nineteen (19)

A menudo me pregunto “¿qué hace Nineteen.ai mejor que Chutes.ai ?”. Y es cierto: en la batalla por las emisiones entre Targon y Chutes, se percibe que compiten en igualdad de condiciones, cuando en realidad ni siquiera juegan el mismo juego.

Utilizaré las palabras mucho más educadas de @jon_durbin
de @rayon_sports para proporcionar una respuesta clara:

Nineteen es una subred de inferencia que proporciona una inferencia extremadamente rápida y fiable para un subconjunto específico de modelos. Sus mineros optimizan la inferencia en esos modelos específicos de forma extraordinaria; por ejemplo, los tiempos de inferencia en el modelo de generación de imágenes flux-1.schnell son aproximadamente un 65 % más rápidos que la canalización predeterminada la última vez que revisé (y probablemente sea más rápido ahora que entonces).

Chutes, por otro lado, está pensado para ser un sustrato computacional de propósito general para cualquier tarea de IA, pero en términos generales es un código que usa nuestras plantillas predefinidas y no está necesariamente optimizado por el creador del “chute” (también conocido como ese punto final/modelo de inferencia en particular), al enésimo grado de la forma en que los modelos se optimizan en 19.

En Chutes, cualquier usuario puede implementar cualquier modelo, con cualquier configuración de GPU, y los mineros lo escalarán según el uso. Chutes se centra en proporcionar computación en cualquier momento y para cualquier cosa. Nineteen se centra en la optimización extrema en modelos específicos. En otras palabras, se trata de un problema de “amplitud vs. profundidad”.

Para garantizar esta optimización en la versión 19, utilizan puntuación exponencial, y es fundamental proporcionar una red y una optimización impecables para sobrevivir como minero. En los canales, el objetivo es una mayor fiabilidad y disponibilidad, por lo que normalizamos la puntuación por TPS (tokens por segundo) y SPS (pasos por segundo para modelos de difusión), ya que nos importa más que las solicitudes se completen correctamente que la velocidad.

Cuando un modelo es lo suficientemente popular y/o necesita esa optimización adicional, puede implementarse también en diecinueve para una mejor experiencia del usuario.

Canales actualmente hay 66 “canales” diferentes, y estos también incluyen cosas para las cuales diecinueve no proporciona inferencia (transcripción, incrustaciones, modelos de video, etc.), mientras que 19 tiene 13 modelos actualmente.

Aquí, por ejemplo, se muestra una ilustración extrema de la diferencia: el rendimiento del modelo QwQ-32B. En Chutes, permitimos que este modelo se ejecute en diversos modelos de GPU, y algunos son bastante lentos en comparación con, por ejemplo, los nodos h100 sxm5. En Nineteen, los mineros básicamente siempre usan el hardware de gama alta para obtener la máxima velocidad. En Chutes, no podemos ejecutar todos los modelos en hardware premium porque los costos serían demasiado altos, pero en Nineteen, al seleccionar cuidadosamente los modelos que se ejecutarán, se puede garantizar el máximo rendimiento en ese subconjunto.

En cuanto al propósito de los mineros: Los mineros de Nineteen son especialistas en optimizar modelos de imagen o de generación de texto. En Chutes, los mineros son esencialmente SRE (ingenieros de confiabilidad del sitio), que mantienen miles de GPU, el tiempo de actividad, la monitorización, etc. Los mineros de Chutes no necesitan ser expertos en IA, sino administradores de sistemas o de red, mientras que en Nineteen ocurre lo contrario. Los mineros de Chutes ejecutan exactamente el código creado y escalan según el uso. Los mineros de Nineteen pueden modificar el código y la infraestructura a su gusto, siempre que supere la validación.

Espero que esto ayude a proporcionar una respuesta clara para cualquiera que quiera entender la diferencia y por qué, para la inferencia optimizada y dedicada, nineteen.ai sigue siendo el rey.

Mogmachine https://x.com/mogmachine/status/1903766103647469762

Tensor e Inferencia

Bajo la superficie de la inteligencia artificial se esconde una estructura oculta, un modelo para el pensamiento.

Un tensor es una estructura de datos que generaliza escalares, vectores y matrices a dimensiones más altas.

En aprendizaje automático, un tensor de hecho es una matriz multidimensional de datos. Los tensores se utilizan para representar y manipular datos en muchos algoritmos de aprendizaje automático, en particular aquellos que involucran redes neuronales.

La capacidad de un modelo de inteligencia artificial para razonar y sacar conclusiones a partir de datos nuevos es la inferencia.

Esta inferencia es el proceso por el cual se derivan conclusiones a partir de premisas o hipótesis iniciales.​ Es el resultado obtenido a través de la deducción, es decir, partiendo de premisas generales para obtener lógicamente una conclusión particular. Por ejemplo: si todos los peces nadan y el atún es un pez, entonces el atún debe nadar.

El tensor, computacionalmente, podemos considerarlo como un contenedor de datos para almacenar matrices multidimensionales, lo que aumenta la velocidad, que se traduce en tiempos de entrenamiento e inferencia más rápidos para las redes neuronales.

Los tensores también ofrecen mayor flexibilidad y expresividad. Representan datos multidimensionales de forma fluida, incluyendo texto, imágenes, secuencias de vídeo y objetos matemáticos complejos.

https://bittensor.com

Cuántos Tao necesitamos

Preguntémosle a Siam Kidd

“He estado liberando todo el efectivo disponible que he podido para aprovechar esta caída, ¡pero necesito más $TAO !

Creo sinceramente que hay al menos un 20x fácil desde aquí, por lo que es obvio que habrá que sufrir un poco a corto plazo para obtener alegría a mediano plazo.

Así que vendo mi avión a precio de ganga para venderlo rápido. Si lo puedo vender en menos de un mes, genial; si no, bueno, me lo quedo. Estos precios bajos son un verdadero regalo.

Así que si alguien está buscando un gran avión acrobático de dos plazas para turismo, ¡envíenlo a mí!”

https://twitter.com/SiamKidd/status/1899560862798533004

Tao dinámico o Dynamic Tao

dTao: ¿Cómo calculo el precio?

Un pool de subred contiene un depósito de TAO y un depósito de alfa, es decir un % de TAO y un % de alfa. Supongamos que hay un pool con un total de 40 TAO y 100 alfa.

El precio del alfa se calcula dividiendo la cantidad de TAO en el pool entre la cantidad de alfa en el pool. En nuestro ejemplo, 40 TAO divididos entre 100 alfa, da un precio de 0,4 TAO por alfa.

En el ejemplo, 0,4 TAO no es exactamente el precio final que pagará. Pero se aproxima mucho. Hay una pequeña tarifa fija por fees (gas) y deslizamiento (slippage).

Tarifas y deslizamiento que se deben tener en cuenta.

El deslizamiento es similar a una tarifa (fee) en el sentido de que pagará un poco más por realizar su transacción.

La cantidad que pagarás por deslizamiento está determinada por el mercado, y nadie se beneficia de él. Tu billetera o aplicación debe calcular el deslizamiento al comprar alfa, pero veamos cómo se calcula.

En nuestro ejemplo, si enviamos un TAO al pool a un precio de 0,4, podríamos esperar obtener un alfa de 2,5, ya que 1/0,4 es igual a 2,5.

Profundicemos. La cantidad de TAO multiplicada por el alfa del pool es un valor que llamamos K, que representa la liquidez total del pool.

K se mantiene constante durante una transacción con el pool de la subred. En nuestro ejemplo, 40 TAO multiplicado por 100 alfa da un K de 4000.

Al enviar 1 TAO al fondo, ahora hay 41 TAO en el fondo. Para equilibrarlo, y que el K se mantenga en 4000, necesitamos reducir el alfa a 97,56.

Esto se debe a que 41 * 97,56 mantiene nuestro K en 4000.

Esta reducción representa una diferencia de 2,44 alfa. Por lo tanto, por nuestro TAO, recibiremos 2,44 alfa.

El deslizamiento es la diferencia entre el precio previsto de una operación y el precio al que se ejecuta realmente, lo que puede tener un impacto significativo en las ganancias y pérdidas.

El deslizamiento es la diferencia entre “el precio esperado y el precio real”. En este ejemplo, el deslizamiento fue de 0,06 alfa o un 2,4 %. Bastante alto.

Para obtener el nuevo precio después de nuestra transacción, recuerde que simplemente dividimos la cantidad de TAO entre la cantidad de alfa, por lo tanto, 41 / 97,56. Es decir, 0,42 TAO por alfa.

Ahora, reiniciemos nuestro ejemplo y, en su lugar, compremos solo 0,1 TAO de alfa.

Por lo tanto, podríamos esperar recibir 0,25 alfa. Ahora hay 40,1 TAO en el fondo. Para equilibrar el fondo y que K se mantenga en 4000, necesitamos reducir el alfa a 99,751.

40.1 TAO multiplicado por 99.751 alfa mantiene nuestro K en 4000.

Así que, por nuestro TAO de 0.1, recibiremos un alfa de 0.249, lo que representa un deslizamiento de 0.001 alfa o un 0.24%, una tasa mejor que en el ejemplo anterior.

El nuevo precio se convierte entonces en 0.402.

Por supuesto, todo esto también funciona en la dirección opuesta. No los aburriré con los cálculos, pero si enviamos ese mismo alfa de 0.249 al fondo común, podríamos esperar recibir 0.1001 TAO debido al aumento de precio desde la última transacción.

En realidad, recibiremos 0.1 TAO en el deslizamiento, que nuevamente fue del 0.24%.

Después de nuestra transacción, el precio vuelve al original de 0.4 TAO por alfa.

A medida que los participantes compran y venden alfa, el equilibrio entre ambos lados del fondo cambia para asegurar que K se mantenga constante.

Entonces, en lugar de comprar grandes cantidades de alfa de una sola vez, considere comprar pequeñas cantidades a lo largo del tiempo para reducir el deslizamiento que está pagando. Comprar pequeñas cantidades a lo largo del tiempo es una estrategia de inversión común llamada promedio del costo en dólares (DCA), que se utiliza generalmente para reducir la exposición a la volatilidad, y también ayuda a reducir el deslizamiento.

Con el tiempo, la liquidez total, o K, en cada fondo aumenta lentamente mediante emisiones. El deslizamiento mejora con el tiempo. Por lo tanto, el deslizamiento en las subredes más antiguas será menor que en las más nuevas, lo que significa que las subredes más antiguas serán más económicas en cuanto a deslizamiento para operar.

Travis de Tao Templar con Taostats.