Skip to content
  • Inicio
  • Reglas
  • FAQ
  • Recientes
  • Etiquetas
  • Popular
  • Usuarios
  • Grupos
skins
  • Light
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (Vtubeando Light)
  • No Skin
  • Vtubeando Light
  • Vtubeando Dark
Collapse
Logo vtubeando.net
v_risalabV

v_risalab

@v_risalab
Admins Vtuber
About
Mensajes
80
Temas
40
Grupos
5
Seguidores
25
Siguiendo
0

Mensajes

Recientes Mejor valorados Controversial

  • ¿En que estas pensando?
    v_risalabV v_risalab

    @toffeevt es terrible sentirse asi ):
    Juegas online?? no se como funciona minecraft lmao


  • Catálogo de comisiones 2023!
    v_risalabV v_risalab

    comisionescatalogo2.png

    Bienvenidos al catálogo de comisiones de este año!
    Aquí todos los artistas que trabajen en algo relacionado con el vtubing pueden promocionarse aquí. La idea es que este hilo puede ser encontrado fácilmente por cualquier persona buscando algo que comisionar a personas para proyecto vtuber!

    Es un post por artista, y debe contener:

    • Que tipo de comisiones hacen.
    • Ejemplos de su trabajo
    • Medios de contacto

  • ¿En que estas pensando?
    v_risalabV v_risalab

    @lumoljee Ahhh, estare atenta a cuando te promociones por aquí


  • Para tod@s l@s introvertid@s...¿Como fue empezar como vtuber? ¿Alguna mejora?
    v_risalabV v_risalab

    Yo he tenido una ansiedad social terrible toda mi vida, pero siento que es bien suave cuando estoy en stream. Igual cuando me pongo a pensar en que hay gente viéndome y hablándome me empiezo a poner nerviosa y me empiezo a poner roja como tomate, menos mal que soy vtuber lmao.
    Fuera del vtubing la cosa sigue parecida, incluso cuando hacia clases nunca perdía la ansiedad 😥


  • [OBSOLETO] Nuestro método para crear videos de vtuber
    v_risalabV v_risalab

    EN CONSTRUCCIÓN. Se necesitan sugerencias y críticas!

    Ejemplo del resultado:

    Vamos a explicar nuestro proceso de creación de videos en tres partes, que son independientes entre sí. La primera es el proceso de mocap, que produce un archivo de movimiento que puedes poner directamente en Unity si lo deseas. La segunda parte es nuestro método de limpiar el mocap y animar las manos, y la tercera parte es sobre como producimos un video en base a un archivo de movimiento, ya sea directo del programa de mocap o un .fbx limpiado de blender.

    Primera parte: Hacer el archivo de movimiento

    Tenemos dos métodos que capturan el movimiento de la otra hana y crean un archivo .bvh, que contiene información de movimiento que puede ser leída por varios programas, como Blender o Unity.

    El primer método es usando threedpose, que predice una posición en tres dimensiones en base a una imagen. En términos de hardware, necesitas una cámara decente, una habitación con buena iluminación, un fondo lo más plano posible y una GPU decente si quieres que tu captura tenga mejor calidad. Esto último es por que threedpose usa machine learning para las predicciónes, y el machine learning necesita de una GPU para poder hacer estas predicciones. Si no tienes algo mejor o igual a una GTX1060, puedes cambiar la predicción a una menos precisa.

    Threedpose necesita una grabación de cuerpo completo de tí, con buena iluminación, ropa apretada y ojala con colores asimétricos. Una vez tienes la grabación, la debes cargar al programa, junto con tu modelo y despúes de unos segundos de ponerle play tu personaje empezará a moverse. Ahí puedes grabar el movimiento y posteriormente guardar el .bvh resultante. Hay un montón de opciones que permiten suavizar un poco el movimiento o la precisión de este, y nunca es malo experimentar con las opciones.

    El segundo método es usando una Kinect. Hay varias alternativas de software para capturar movimiento con kinect, pero decidimos invertir en un programa llamado Brekel, que hace el proceso mucho más simple que lo que estabamos haciendo antes.

    Guía de Brekel pendiente

    Estos dos métodos no producen animaciones de la misma calidad. El movimiento capturado por threedpose tiene mucho más ruido que el de brekel, al punto que las veces que hemos trabajado con threedpose hay que disminuir mucho el movimiento base del modelo o tiembla demasiado. Sin embargo, es posible reducir el ruido en el movimiento usando herramientas en programas como blender, donde ocurre la segunda parte de nuestra producción de videos.

    Segunda parte: Blender

    En blender, usamos dos addons: VRM importer para importar nuestro modelo base, aunque si usas nuestro proyecto plantilla no es necesario, y el plugin de Rokoko Studio. Pasa usar el plugin de rokoko, primero te debes crear una cuenta en su sitio.

    Si no tienes familiaridad con Blender, esta parte puede ser un poco difícil de seguir. Trataremos de explicar con profundidad.

    Nosotras usamos un modelo base en el que ajustamos las animaciones. Tiene unos controladores para sus manos que facilitan mucho su animación. Dejaremos este proyecto de Blender disponible para descargar, para que ustedes puedan usar el mismo modelo. La verdad, cualquier modelo base sirve, ni tiene que venir de un VRM, pero usamos el de hanachi por conveniencia.

    En Blender, importas tu bvh, lo rotas para que tenga la misma orientacion de tu modelo, y en la pestaña del plugin de rokoko haces login y te vas a la sección de retargeting, donde puedes pasar la animación del bvh a tu modelo. Ahí eliges como fuente el motion que importaste y como objetivo el esqueleto del modelo base. Asegurate que los huesos correspondan correctamente a los del modelo base, y elimina la asociación los huesos de los pies y manos, ya que esos los debes ajustar tu manualmente a menos que tengas animación de manos precisa.

    Usualmente el motion que importaste tiene una posición de descanso distinta al de tu modelo base, produciendo resultados un tanto perturbadores si no solucionas eso. Para corregir esto, debes ponerte en el primer cuadro en la vista de timeline, que por dedfecto está en la parte inferior, seleccionar la animación en object mode, luego entras a pose mode., donde debes eleccionar todos los huesos y reiniciar la rotación y traslación del esqueleto presionado alt+g y alt+r. Veras que queda en la posicion de descanso. Mueve y rota el esqueleto para que calce de la mejor manera con tu modelo base, y aprietas I para crear un keyframe en la animación, seleccionando LocRot. Esto fija la posición actual de tu animación como la más parecida a la posición base de tu modelo. Asegurate que la posición del primer frame sea muy parecida a la del esqueleto del modelo, pero sin trasladar ningún hueso:
    Alineando los esqueletos

    Una vez hiciste este ajuste, vas al modo objeto, y en la pestaña de rokoko le das que use la posición actual, y a retarget. Puedes guardar tu configuración con save y luego export. Una vez termine el proceso, verás que tu personaje se mueve junto con la animación que exportaste.

    El modelo se mueve con la animación

    Si no te gustan ciertas partes de la animación, puedes ajustarlas en el graph editor, cambiarlo las rotaciones (Nunca las traslaciones) de ciertos huesos, como en la imagen. También puedes seleccionar todos los keyframes, y hacerle smooth keys (F3 -> buscar smooth keys) para hacer que se vea un poco mas suave la animación. Puedes hacer esto varias veces hasta que se vea mejor.

    Ajustando las rotaciones usando el curve editor hasta que se vea natural
    Ajustando las rotaciones usando el curve editor hasta que se vea natural

    Para animar las manos, puedes usar los controladores del modelo base. Hay uno para el puño, donde su posición en y determina que tan cerrada es la mano, y uno para cada dedo, que los abre o cierra acorde a su rotación. Si quieres animar algo tienes que colocar keyframes en la posición o rotación de los controladores que te interesan. La animación en Blender tiene un montón de opciones y cosas que aprender, y sería bueno que aprendieras más sobre esto por tu cuenta para ir mejorando las animaciones de tu modelo. También pueden modificar directamente el hueso base de cada mano.

    Una vez termines de modificar las manos, es importante que le des a bake action (F3 -> escribes "bake action") con las siguientes opciones, en modo de pose y con los huesos de las manos seleccionados:

    Bake action, con only selected bones, visual keying y overwrite current action seleccionados.

    Recuerda colocar el rango de cuadros de tu animación. Esto pondrá la animación en los huesos de las manos en vez de solo el controlador. Claro, no es necesario hacer el bake si no tienes los controladores, ya que puedes animar los dedos uno a uno.

    Finalmente, te vas a modo objeto, seleccionas solamente el esqueleto de tu personaje, y le das a exportar fbx con las siguientes opciones, de manera que se exporte solamente el esqueleto que tienes seleccionado:

    Configuraciones para exportar el esqueleto

    Esto termina la sección de blender.

    Video Tutorial

    Tutorial del plugin de Rokoko

    Archivo .blend base que usamos nosotras

    Tercera parte: Unity

    En esta sección no seremos tan detalladas como en la anterior.

    Para Unity, estamos usando UniVRM para importar nuestros modelos, y el shader UnityChanToonShader para que se vean mejor nuestros modelos. Para el lipsync, usamos uLipSync y para el pestañeo usamos un script que hace que pestañee lo correcto aunque esté haciendo una expresión. No explicaremos como instalar estos addons, a menos que uno de ellos se les dificulte en particular.

    Las configuraciones relevantes que tenemos en el modelo de hanachi son los siguientes:
    Configuración del animador de hanachi
    Configuración del lipsync y blinker

    Una vez importamos el fbx a Unity, le aplicamos un avatar a la animación, que es una especie de adaptador que nos permite ponerle la animación a Hanachi. Pueden configurarlo con el botón de configurar para asegurarse que todas las asociaciones están en orden. Darle a enforce T-pose antes de aplicar suele producir un buen resultado.

    Puedes duplicar la animación con ctrl+D para poder modificarla y colocarsela al modelo modelo. Verán que si le ponen play, su personaje se moverá con la animación que importaron. Si quieren animar su rostro, pueden hacerlo en Unity. Con el personaje seleccionado, vamos a la pestaña de animación y le damos a "Add Propierty", luego buscán el blendshape que corresponde a su expresión en el menú, lo agregan y lo animan como lo deseen (Recuerden consultar tutoriales de Unity).

    Finalmente, grabamos el movimiento con UnityRecorder, con una pantalla verde de fondo o un video lindo. Esto concluye la parte de Unity.

    Comentarios

    Como dije en el principio, estas tres partes son independientes entre sí. Si tienes un archivo de movimiento .bvh o .fbx producido de alguna otra manera, puedes importarlo a Unity y seguir la parte 3 como si hubieras hecho las anteriores, o puedes limpiarlo en Blender independiente de como lo produciste.

    Este tutorial está en construcción, dentro de los próximos días vamos a poner videos que graben el proceso de cada parte. Agradecemos mucho su feedback!


  • Hacer un redebut... Algunas experiencias?
    v_risalabV v_risalab

    Mi modelo nuevo está casi listo, y me gustaría celebrarlo como lo hacen otros en la comunidad con un redebut y todo eso.
    La verdad nunca he hecho nada así, ni siquiera hice un debut cuando empecé hace un tiempo, así que no me gustaría entrar a ciegas y terminar mal preparada para un evento que es importante para mi y que termine en un desastre o algo D:
    alt text
    Me gustaría saber si tienen algún consejo para un vtuber sin experiencia que esté planeando un debut/redebut. Con que debería tener cuidado? Que les ha funcionado?
    Obvio no es solo para mi, por algo lo posteo aca :)


  • VSeeFace o VUP, ¿Experiencias?
    v_risalabV v_risalab

    Hola!
    Desde que soy VTuber, la única herramienta que he usado para mover mi avatar ha sido VSeeFace, y no he probado otras opciones. Recientemente he oido de otra herramienta parecida llamada VUP, y a primera vista se ve bastante interesante. Tiene escenarios mocap (?) y una detección de rostro un poco más detallada (Aunque por lo que he visto no es muy buena en términos de calidad).
    Me tienta un poco cambiarme y aprender a usarla, pero le he sacado mucho provecho al formato vsfavatar:


    Principalmente por el tema de que me deja poner los shaders que quiera, animaciones y accesorios a mi personaje que la verdad no se si pueda poner en VUP con la misma libertad.
    Me gustaría saber si hay alguien por aquí con más experiencia en VUP que pueda contar un poco como le ha ido con la herramienta y si es que la recomienda. Muchas gracias!


  • Evitando el "Revivan el server!", ¿Como mantienen sus servidores de Discord vivos?
    v_risalabV v_risalab

    Mi servidor fue por un tiempo bastante activo, pero nunca supe que hacer con esa energía que tenían algunas personas y poder convertirla en algo más duradero donde se sientan bienvenidas. Hoy en día, es bastante inactivo y lo usamos principalmente para anuncios y cosas así, pero realmente siento que pudimos haber hecho un mejor trabajo manteniendolo activo. Mis preguntas son:

    ¿Que les ha funcionado para mantener a la gente interesada en su servidor? ¿Que eventos han sido más efectivos? ¿Hay alguna clave que deberíamos tener en cuenta?


  • VNyan Megathread - Preguntas y tips!
    v_risalabV v_risalab

    @Umikolove dijo en VNyan Megathread - Preguntas y tips!:

    Wooooo * 0 * se ve muy genial el programa :D sí que tiene opciones, es chachi * ^ *
    Me sonaba el nombre pero no sabia mucho del programa :3 Está muy completo :D
    Aunque me han surgido algunas dudas el ver el video owo
    ¿Es de pago? si es así ¿Cuánto vale? owo
    ¿Es incompatible con algun sistema operativo? ;W; (me pasa mucho ;W;)
    ¿Se puede usar solo con webcam, a pesar de no tener tracking de cuerpo completo, ni tracking facial así complejo?
    ¿Por casualidad te añade el poder moverte un poco el cuerpo y eso solo con la webcam? Q.Q

    (La verdad es que suelen haber muchos programas incompatibles con mi ordenador y lloro ;W;)

    Me gusta mucho usarlo! Creo que tmb debería hacer uno de la otra opción (Warudo), aunque no tengo tanta confianza con ese pograma. Tus preguntas:

    • Es gratis
    • Se que funciona en linux con wine, y en windows nativamente. En Mac OS no estoy segura la verdad, ¿Alguien más sabrá?
    • ¡Si se puede! También tiene funcionalidad de tracking de manos e incluso de ARKit para los modelos que lo soportan, pero la calidad puede variar.
    • Sip, hay hartas configuraciones para ajustar el como el cuerpo responde a la webcam, e incluso puedes imitar el estilo de movimiento de Live2D, si es que lo prefieres.

  • Stream vertical en Youtube?
    v_risalabV v_risalab

    Últimamente, he oído que hacer streaming en Youtube en formato vertical es muy efectivo porque se le da mucho impulso a ese formato comparado con el horizontal (porque Youtube quiere darle un impulso a shorts, supongo). He estado pensando en si vale la pena hacer multistream en ambos formatos a Youtube...

    ¿Algunas experiencias? ¿Ven streams en formato vertical?


  • Corrective blendshapes to correct your shapes!
    v_risalabV v_risalab


    Sometimes, cloth has to follow the body only when being squished by it. Rigging it directly to a bone would make it unnaturally follow it when the cloth is not actually being squished!

    Tutorial

    What you need

    • Basic Blender knowledge: Modifying meshes, and managing of blendshapes
    • The VRM addon for Blender

    Steps

    In Blender

    1. Import your model into Blender, and, for your own sanity, properly separate the piece of cloth you want to be squished from the rest of the clothes.
      d898cf09-18dd-4bb5-aa46-96bb68c9398e-image.png
    2. Rotate the bone to its humanly possible limit. In this case, any rotation of the neck bone in the X axis greater than 5° caused clipping, but I increased the rotation to something that looks like a reasonable limit for neck rotation. Take note of all the angles you work with, in this case, 5° and 22°.
      6cf2dbf8-4b68-45a9-bbba-10ca167a01ba-image.png
    3. Select your mesh, and create a new blendshape. Name it something descriptive, in this case, it's Neck Forward. Modify this blendshape such that the cloth no longer clips in the set bone position.
      9f6f5dc7-a3a4-4d7c-af8b-e508748a168d-image.png
    4. (Optional) In this case, when rotating the neck in the Y axis, the cloth looks very unnatural. Since it's a common movement, you can create two additional blendshapes for each side that will activate along with the first one, blending and making the cloth follow the chin a bit better. I called these blendshapes Neck Left and Neck Right.
      63a9f602-e191-46f1-a008-a7abed8ceb6f-image.png
      3ed47cfe-32bd-40c0-b509-7199f1535814-image.png
      c35c6581-74c0-4fd4-a619-436926d2d696-image.png
    5. Now put the bones in the rest position, reset the blendshapes, and register the new blendshapes in the VRM blendshape proxy so VNyan can read them.
      84aec080-2c70-4654-94ae-dee5012b3708-image.png
    6. Export the model

    In VNyan

    We now have to setup VNyan to check the neck rotation every frame, and if it's beyond the 5° rotation on the X axis, start activating the blendshape, blending it until the 20° limit, when Neck Corrective Down should be at its maximum.
    10c93063-f340-4f84-9d6c-1049771049a1-image.png
    Here's a quick breakdown of the node setup:

    1. This part just sets up a loop for vnyan to run every frame
      52f8f060-b872-40c2-9ea4-0854bcd789f4-image.png
    2. Next, it gets the value for the X rotation
      600d9a7d-484d-47a9-9290-3193bbed164f-image.png
    3. And checks that it is between the 5° and 22° range. If it passes, it sets the new blendshape value.
      984b0df0-03ab-46b7-b836-9c15967ec30c-image.png
    4. The value for the blendshape is determined via a linear interpolation that maps de 5°-22° range to the 0-100 range. If your range goes from a to b, you have to substract b to make it go from 0 to a-b, and then multiply it by 100/(a-b), making the range go from 0 to 100. Here, a=5 and b=22
      1cc783e6-4b4c-4b1e-b40a-4c171393c950-image.png
    5. (Optional) You can use the ordered execution node to make it also check the Y axis and apply the other two blendshapes as needed. You can just define the angle limits by what angles you used in blender while setting up the blendshapes. Don't take this screenshot too seriously, I didn't properly note the angles I used so I just guessed numbers, but it gives a general idea of the process of checking another angle along with the first one.
      4102e0ae-a06b-4002-9f10-c9279cdb9050-image.png
      And so, every frame the blendshape values are updated smoothly between 0 and 100 depending on the neck rotation, squishing the cloth as needed!
      b7b93bf5-ee21-4e9d-bce1-5fc7a6971c1b-image.png

    Notes

    • You can do this for a bunch of bones, use the three axis of rotation, and mix and match conditions to suit your desires. It may even start to look like a Live2D setup. Be careful though, you roughly duplicate the amount of blendshapes needed by each degree of freedom! Two bones can need up to 64 blendshapes, one for each possible range of positions!
    • This can probably be done in Warudo too!

    Files

    • The node setup for a single axis
    • No sample file or model today, this is my friend's model (Go take a look at her work if you can understand spanish!)

  • Reglas de Videos
    v_risalabV v_risalab
    1. El propósito de este subforo es se posteen videos de vtubers, para que puedan ser fácilmente descubiertos por los miembros del foro.
    2. Las reglas usuales aplican.
    3. Aquí los vtubers pueden postear sus propios videos en su propio thread, o puedes postear videos de otros vtubers. Debes tagear con "propio" o "no propio", respectivamente.
    4. Solo se pueden dar críticas/feedback a discusiones con el tag feedback.

  • ¿Que programas utilizais para grabar vuestro avatar?
    v_risalabV v_risalab

    Yo uso VSeeFace con OBS para capturar mi avatar 3D! Traté de usar el Streamlabs pero se me cortaba el audio y se crasheaba demasiado seguido, así que me moví al OBS.
    No he probado el VUP, que tal es??


  • Como es tu Setup?
    v_risalabV v_risalab

    @vtuberwolfe dijo en Como es tu Setup?:

    Pues eso, me da un poco de curiosidad como es el setup que usan los demas Vtubers aqui presentes. Se que hay algunos que usan computadoras y equipo profesional.
    Y luego estamos algunos como yo que usan algo mas... improvisados. 😬

    Asi que me gustaria verlos!

    (La laptop solo tenia un fondo asi en lo que prepaparaba el stream, no significa nada haha)
    setup2.jpg

    Me pregunto cuantos adaptadores tendrás conectados para hacer que todo eso funcione, me encanta la pantalla de la izquierda TT


  • Memes y jajas
    v_risalabV v_risalab

    Este thread es para que posteen cosas chistosas. Las reglas usuales aplican.

    Yo empiezo.

    Pueden poner cualquier link con una imagen o cualquier link que termine en .mp4, y se mostrará automáticamente en el post.


  • Como colaborar con otros vtubers en tiempo real usando VNyanNet en 2025!
    v_risalabV v_risalab

    El problema

    Durante años, colaborar entre VTubers 3D ha requerido, de una manera u otra, enviar un stream con pantalla verde a través del internet al host, y que este le ponga un filtro de chroma key para poder usarlo en OBS. Esto conlleva una serie de problemas.

    • Una conexión no óptima degrada enormemente la calidad del video.
    • Se requiere de un servicio externo (OBS Ninja, Discord).
    • El host solo tiene acceso a un video que no puede rotar o posicionar para ajustarlo al layout de su stream/video.

    ¿Qué es VNyanNet?

    10ff79ce-5608-44b6-bae8-85c6db88226d-image.png

    Es una función que se introdujo hace poco en VNyan, que permite colaborar con otros VTubers en tiempo real. Funciona con un sistema de servidor dedicado: Una maquina corre el servidor y cada uno se puede conectar a el, igual que en los videojuegos online. En VNyanNet:

    • En el inicio de cada conexión, el modelo es enviado al host. Después de eso, lo único que se envía son los datos de movimiento, reduciendo enormemente el ancho de banda requerido, comparado con un video.
    • Puedes hostear tu propio servidor en tu computadora, sin depender de ningún servicio externo.
    • Todo ocurre dentro de VNyan, permitiendo al host usar todo el poder del software durante el collab. Posicionamiento, sincronización de eventos, efectos visuales, etc.

    ¿Qué se necesita?

    • VNyan y VNyanNet Server
    • Avatares en formato VRM. Se recomienda que estén en VSFAvatar, pero hacer la conversión no es una tarea simple. No he tenido muchos problemas usando solo VRMs, solo que se demoran un poquito en cargar al inicio.
    • Una VPN que ofrezca acceso a la red de confianza cero (ZTNA), lo que permite a todos los vtubers y al servidor estar en la misma red (Puede que no sea necesario, más información abajo). Recomiendo Zerotier: es gratis, simple, compatible con todo, y es lo que me funciona a mi.

    Setup de red

    Para que todos se puedan conectar al mismo servidor, tienen que todos tener acceso a este a través del internet. En algunos países, es tan simple como abrir unos puertos a la red la maquina donde está corriendo el servidor, pero en Chile, por ejemplo, los proveedores no permiten hacer esto, y se requieren otras soluciones.

    Si no estas seguro si tu proveedor permite el port forwarding o si tiene IP estática, recomiendo usar la opción de una VPN. Hasta donde sé, en latinoamerica casi ningún proveedor ofrece esas funciones.

    Esta es la parte más complicada, pero lo bueno es que se debe hacer solo una vez.

    Usando una VPN (Recomendada)

    Queremos usar una VPN que ofrezca ZTNA. Cuento corto, esta funcionalidad permite a todos los computadores en la misma red de la VPN hablar entre ellos como si estuvieran conectados al mismo router, bypasseando la necesidad de abrir puertos u otras cosas complicadas. Además, es muchísimo mas seguro que abrir puertos al internet.

    Daré las instrucciones para conectarse con ZeroTier One (Otra alternativa es Tailscale, pero nunca lo he usado. Estas instrucciones son una traducción/resumen de estas:

    1. Crea una cuenta de ZeroTier, y sigue las instrucciones para crear una organización. No necesitaras nada más que el plan gratis para esto. Esta será la red a la que todos se conectarán, incluyendo el servidor.
    2. En la barra lateral izquierda, ve a la sección de Networks, selecciona la red por defecto, y copa la ID de red.
      977823d1-e1ad-48ee-ae82-df7cd9fb7cc4-image.png
    3. Descarga e instala ZeroTier en todas las computadores que se van a conectar, incluyendo el servidor.
    4. Una vez esté corriendo el software, en la bandeja del sistema debes poder ver el ícono de ZeroTier. Dale click, y luego en "Join new Network...". Pega la ID de la red, y click en unirse.
      81addc6d-6f13-4f05-a2b5-ff6ae2ace45b-image.png
    5. Ahora, tienes que autorizar a cada una de las computadores que se han intentado conectar a la red. En la central de ZeroTier, te aparecerá una notificación que te dará la opción de autorizar cada computadora. También puedes ir a la lista de miembros de tu red, y autorizarlos uno a uno.
      88c71e4e-d866-4847-85ab-112b40c3046d-image.png
      6d6777ef-7e8d-4fd5-8336-eda731c26a12-image.png
    6. Ahora deberían estar conectados. A cada miembro, se le asignará una IP, listada en la columna de "Managed IP". Anoten la IP donde se correrá el servidor de VNyanNet, ya que todos deberán conectarse a esa.

    Si se autorizaron todas las computadores, cada una tiene una IP asignada y todos tienen un "Visto por última vez" de un par de minutos , ya deberían todas estan en la misma red local definida por ZeroTier.

    Abriendo puertos (Para proveedores con IP estáticas y que permiten el port forwarding)

    El port forwarding permite a computadores fuera de tu red local conectarse al tuyo a través de ciertos puertos. Estos son los pasos que debes seguir:

    1. Abrir los puertos en la configuración de firewall de tu sistema operativo (Tutorial para windows aquí)
    2. Hacer port forwarding a estos puertos en la configuración de tu router (Tutorial aquí, es muy verboso pero es el mejor que encontré en español)

    Los puertos que debes abrir son:

    • UDP 2456
    • TCP 2457

    Una vez hayas hecho esto, puedes ver si los puertos son accesibles aquí. Si no están marcados como accesibles, es posible que tu proveedor no permita el port forwarding, así que recomiendo probar el método anterior.

    Con NodeCraft

    Hace poco, NodeCraft, una compañía de hosteo de servidores de juegos, inició una colaboración con VNyan para hacer el hosteo de VNyanNet muy simple. Tengo entendido que es cosa de comprar un servidor y todo se configura por su cuenta. Puedes contratar los servicios aquí y ver las instrucciones aquí.
    aabbfc5a-3c6e-4961-bbfd-09fa85b629b4-image.png

    Configurando el servidor

    En la carpeta de VNyanNet que descargaron y descomprimieron, pueden abrir VNyanNet.cfg y configurar una contraseña. Si usan una VPN, da un poco lo mismo, y si no, usen una contraseña segura, pues su servidor quedará abierto a TODO el internet. Luego le dan click al .exe, y su servidor ya estará corriendo!

    Conectandose

    En VNyan, deben seguir estos paso:

    1. El anfitrión debe ir a la sección de VNyanNet, y poner la IP y contraseña del servidor. Como es el anfitrión, debe crear un nuevo Lobby, y ponerle una contraseña que compartirá con los demás. Darle a "Connect" y si todo sale bien, en la sección de Lobby Details aparecerá la ID del lobby. También debes compartir eso con los demás.
      478e50c9-1087-4e64-bba6-7f3a3f221658-image.png
    2. Todos los invitados, en la sección de VNyanNet, deben poner los mismos detalles del servidor, la ID del lobby, la contraseña del lobby que puso el anfitrión, y darle a conectar. Si todo sale bien, tanto el anfitrión como los invitados verán a todos sus modelos en la misma posición, y la lista de clientes coenctados en la sección de VNyanNet
      c1491974-bb5b-4dd6-abcd-388812437775-image.png.
    3. Configurar la posición de cada invitado se hace a través en un prop que representa su posición, escala y rotación. En la sección de props, dale a "Load from file", y cargar los props llamados VNetPositionSlotX.vnprop ubicados en <Carpeta de instalación de VNyan>/Items/Props, donde X es el número que representa al invitado que quieres posicionar.
    4. En la ventana de Props, donde dice "Linked Bone", pongan "World" para que la posición sea relativa al mundo y a nada más, y en "Transform Mode", elijan "Move" para que aparezcan las flechas para reposicionar facilmente. Repitan para cada persona.
      187f43cf-e2e0-4bd8-ae68-a98dab3b99ae-image.png
    5. Para que se reflejen estos cambios en todos los invitados, los invitados pueden activar "Host controls guest positions" en la ventana de VNyanNet.

    Con esto, el setup para colaborar con VNyanNet ya está listo! Cada invitado puede activar redeems, bailes, toggles, etc. en su modelo y se verá instantáneamente reflejado en el host!

    Aquí hay una versión video en inglés de esta sección:

    Interacciones

    Puedes usar los nodos de Send VNyanNet RPC y VNyanNet RPC para enviar y recibir eventos, respectivamente, entre los invitados y el anfitrión, usando los nodos de VNyan. Las posibilidades son infinitas!

    Troubleshooting

    Si algo no queda claro o tienen algún problema que no este cubierto aquí, siéntanse libres de preguntar! Ese es el punto de los foros :D

    Estoy usando ZeroTier, pero no puedo conectarme!

    Primero, el creador de la red tiene que verificar que tu computadora esté

    • Autorizada (Si no lo está, debe autorizarla).
    • Tenga un "Last Seen" de unos pocos minutos (Si es más tiempo, tu computadora está probablemente. desconectada).

    También, debes asegurarte de que tu estatus en la red sea "OK"
    407469c1-97ab-423a-8af3-be20c89257e5-image.png

    Si el estatus es diferente, significa que tu computadora está desconectada. Puedes darle a Disconnect, y luego a Reconnect para ver si se arregla el problema, si no debes reiniciar el servicio de ZeroTier en Windows (Solo he visto esto suceder en Windows). Para hacer eso:

    1. Windows key -> buscar "Servicios" -> Abrir el primer resultado que no sea web o publicidad (Windows siendo Windows)
      2- Bscar bien abajo en la ventana "ZeroTier Service". Click derecho, y darle a "reiniciar". Esperar un poco y volver a ver si el estatus de la red está en OK.

    Si esto no funciona, no tengo más ideas más allá de reiniciar el computador.

    Fuentes

    • https://github.com/Suvidriel/VNyanDoc/wiki/VNyanNet
    • https://docs.zerotier.com/quickstart/

  • ¿Qué quieres lograr como VTuber?
    v_risalabV v_risalab

    Hoy vi este thread en twitter:

    https://twitter.com/CookyePhoo/status/1402061771460972545

    Y me gustaría llevarlo un poquito al foro para poder discutirlo y comentar! Empiezo yo
    Siendo honesta mi razón para ser VTuber ha cambiado un poco en el tiempo... Inicio por que quería tener compañía jugando cosas y ahora que llevo más tiempo siento que le voy dando cada vez más importancia al valor de entretenimiento que mi stream da.
    Siento que la felicidad que me da hacer a otra gente reír y pasar un buen rato es algo que quiero seguir sintiendo, y estaré más feliz si es que logro a llegar a más gente que pueda verdaderamente disfrutarlo, y creo que esa es mi motivación para buscar maneras de crecer.

    Me gustaría saber un poco como ha evolucionado su motivación! También me pregunto si alguien acá tiene una idea de donde estará en un año...


  • Mi primera vez dentro de un foro
    v_risalabV v_risalab

    Hola!!
    Si no has estado en un foro antes debe ser un poco confuso. La idea es que cada persona puede poner hilos donde otros comentan en cada subforo. Por ejemplo, esta discusión que creaste creo que cae mejor en presentaciones y debuts. Si eres vtuber, puedes editar tu post para incluir tus redes sociales y hablar un poco de tí. Moveré esa discusión para allá.
    Espero te sientas bienvenido!

    Edit: Lo moví a hilos rápidos, ya que aqui pertencen conversaciones que son menos serias y formales. Puedes crear tu propio hilo de presentación en la sección "presentaciones y debuts".


  • Reglas de Otros Hobbies
    v_risalabV v_risalab
    1. No creen hilos sobre algo que ya tiene un hilo activo!
    2. Las reglas usuales aplican.
    3. Usen los tags de spoilers cuando sea necesario. Rodea un parrafo con || para hacerlo colapsable (||asi||), o rodea texto normal | < asi > | (Sin espacios) para esconder el texto.

  • ¿Han tenido algún problema con un viewer molesto o un sub muy "pegajoso" ?
    v_risalabV v_risalab

    Lo que mas me ha pasado son viewers que insisten en jugar conmigo y pidiendome el steam, aunque les diga que no varias veces. Me desagrada mucho cuando una persona random llega y me exige toda mi atención.
    Al menos nunca vuelven despúes de eso jeje

  • 1 / 1
  • Conectarse

  • dont_have_account Registrarse

  • Buscar
  • First post
    Last post
0
  • Inicio
  • Reglas
  • FAQ
  • Recientes
  • Etiquetas
  • Popular
  • Usuarios
  • Grupos