¿Hay aquí algún experto en Edición de Video que pueda disipar mis dudas?

Iniciado por big_ed, 30 Octubre 2019, 16:22 PM

0 Miembros y 1 Visitante están viendo este tema.

big_ed

Hola a todos  ::)

Necesito que por favor alguien con conocimientos de Edicion de Video (semi o profesionales), me aclare unas dudas que tengo, tratando de explicar lo mas simple posible (ya que en internet hay algunas explicaciones pero casi no se entienden..mucho tecnisismo)

- ¿qué es un Proxy Clip?

- "transcodificar" se refiere a , convertir un video, por ejemplo, de .mov a .mp4??

- A qué se refieren cuando dicen "editor de video lineal o no lineal"? (en tiempo real o no) , y lo mismo con el renderizado ¿a que se refieren cuando dicen "en tiempo real"?

¿cuantos fotogramas por segundo es lo mas recomendable definir?

- ¿cómo se consigue trabajo como Editor de Video , si yo nunca he visto en las páginas de empleo que soliciten Editores de Video (me refiero en America del Sur)? ¿es a dedo (o sea por recomendacion), por contacto dentro del canal?

- ¿el editor de video mas potente es Premiere?


Gracias de antemano.


POSDATA: tampoco entiendo la explicacion sobre las diferencias entre "escaneado progresivo y entrelazado".

engel lex

no soy experto pero he trabajado con ello

Citar¿qué es un Proxy Clip?

basicamente es una copia local en baja calidad, el asunto es que durante la edición de video usualmente no ves el video a maxima calidad ya que no es necesario la mayor parte del tiempo, sino que lo vez en una ventana reducida, por eso se crean copia de baja calidad para trabajar sobre ellas, tampoco vale la pena andar leyendo y cargando en ram un archivo de alta calidad (especialmente en formato raw que puede pesar cientos de mega por minuto de video)

Citar- "transcodificar" se refiere a , convertir un video, por ejemplo, de .mov a .mp4??

en lineas generales si... transcodificar es basicamente cambiar el codec el video, pero tambien hace relacion a cambios de calidad dentro del mismo codec (por ejemplo pasar de 4k a 720)

CitarA qué se refieren cuando dicen "editor de video lineal o no lineal"?

basicamente el la forma humana del nombre "editor de video de acceso aleatorio" (como la ram sería memoria de secuencia no lineal), hace referencia a que puedes acceder y alterar cualquier punto sin afectar al resto, los lineales por lo menos solo te dejan introducir fotos o clip entre otros cambiando por consecuencia el largo

Citary lo mismo con el renderizado ¿a que se refieren cuando dicen "en tiempo real"?

que vez los cambios aplicados en tiempo real, no tienes que procesar (renderizar) el video a un archivo para ver el resultado

Citar¿cuantos fotogramas por segundo es lo mas recomendable definir?

depende del objetivo del trabajo, usualmente para video online de 720 en adelante 60fps

Citar¿cómo se consigue trabajo como Editor de Video , si yo nunca he visto en las páginas de empleo que soliciten Editores de Video (me refiero en America del Sur)? ¿es a dedo (o sea por recomendacion), por contacto dentro del canal?

entonces no has buscado XD bastante solicitan, sobre todo enpresas que hacen videos de eventos, bodas, y esas cosas... lo mas seguro es que requieras unperfil inicial y un portafolio para ser tomado en cuenta

Citar- ¿el editor de video mas potente es Premiere?

el cuaderno mas potente es el de linea simple? mas o menos esa es tu pregunta XD
un editor de video es un programa, su potencia es harina de otro saco, depende del fin y la empresa dependerá, puede ser after effects, premiere, final cut, entre otros...

CitarPOSDATA: tampoco entiendo la explicacion sobre las diferencias entre "escaneado progresivo y entrelazado".

busca un video en youtube, es mejor entenderlo visualmente
El problema con la sociedad actualmente radica en que todos creen que tienen el derecho de tener una opinión, y que esa opinión sea validada por todos, cuando lo correcto es que todos tengan derecho a una opinión, siempre y cuando esa opinión pueda ser ignorada, cuestionada, e incluso ser sujeta a burla, particularmente cuando no tiene sentido alguno.

MinusFour

Cita de: big_ed en 30 Octubre 2019, 16:22 PM
- ¿qué es un Proxy Clip?

Básicamente, es una fuente que fue modificada y actúa de representante (a.k.a proxy) para ser más eficiente a la hora de trabajar con el archivo. Hay varias razones por la cual el archivo fuente puede o no ser ideal para trabajar con. En primer lugar, puede ser que simplemente por la resolución del video agregar efectos y así, el editor tarde mucho en renderizar los cambios para el playback. Por eso tienes en los editores usualmente un dropbox con opciones como 1/2, 1/4 o 1/8. Esto corta la cantidad de pixeles, lo que significa que 1/4 de 8k por ejemplo no es 2k, sino 4k (porque 8k es 4 veces 4k).

Pero probablemente la razón por la cual vas a generar proxys para trabajar con ellos se deba al codec. Hoy en día, usamos H.264 para TODO. Las camarás DSLRs usan este codec, los software para grabar escritorios usan este codec, las webcams, tarjetas de captura de video, etc. Las webs cuelgan H.264 (Youtube, Netflix, Amazon, etc).

H.264 es un buen codec para entrega porque puedes comprimirlo drástiacmente y todavía disfrutar de una buena calidad de video. Pero para editar, este formato es horrible porque tu CPU tiene que estar descomprimiendo los frames que estás editando. Usualmente viene en Long GOP (que usa fotogramas para predecir, antes y después) pero la experiencia de edición cambia un poco más si vienen con solo intra fotogramas (All I).

La gente por lo general opta por otros formatos a la hora de editar (DNxHD/DNxHR, ProRes, Cineform, BlackMagic RAW, RedCode Raw, etc) a pesar de producir archivos más grandes. Si tu sistema está batallando con videos H.264, usualmente uno de estos formatos (varios de los que mencione son propietarios) simplifican la edición de video (porque no están tan comprimidos).

Cita de: big_ed en 30 Octubre 2019, 16:22 PM- "transcodificar" se refiere a , convertir un video, por ejemplo, de .mov a .mp4??

No, a eso se le llama un "Remux". MOV y MP4 son contenedores. Piensalo como si fueran formas que tienes que llenar y ambos tienen cajas donde tienes que llenar cosas como: "FPS", "Codec de Video", "Video", "Codec de Audio", "Pista 1", "Pista 2", etc. Cada uno de los contenedores puede llenar estas entradas en diferente orden o puede no usar otras cosas que los otros contenedores si. Los reproductores de video obviamente necesitan saber como obtener todos estos datos y los contenedores especifican como obtener está información.

Transcodificar tiene más que ver con coger el video/audio de los contenedores, decodificarlo y luego volver a codificar en otro codec. Por ejemplo, de H.264 a DNxHD o ProRes, de AAC a Vorbis o WAV.

Cita de: big_ed en 30 Octubre 2019, 16:22 PM- A qué se refieren cuando dicen "editor de video lineal o no lineal"? (en tiempo real o no) , y lo mismo con el renderizado ¿a que se refieren cuando dicen "en tiempo real"?

Editar video y audio linealmente viene en parte de como se producían los videos y clips anteriormente. En el caso de las películas, se hacían las tomas y luego se cortaban y se unían los pedazos de película para hacer la producción final. Si querias desarrollar esas tomas en diferentes forma, cortar de otra manera, reusar esas tomas en otra parte de la película pues era más difícil.

NLE no tiene esos problemas porque no hace cambios directos sobre la fuente. Lo que te da más libertad de como quieres juntar los clips, que efectos aplicar, volver a reusar los clips, etc.

Cita de: big_ed en 30 Octubre 2019, 16:22 PM¿cuantos fotogramas por segundo es lo mas recomendable definir?

Yo creo que depende de lo que vayas a mostrar y también tiene que ver un poco tu preferencia. La gran mayoría de las películas que se han filmado son en 24p. Hay algunas películas que fueron filmadas en 48p (las películas del Hobbit) y 60p. Hace poco también salio una película que fue filmada en 120p (Gemini Man).

Por lo general, los videografos y cineastas tienen una predilección por 24p. ¿Porque? Si soy honesto, es porque así lo prefieren. La principal razón que yo he escuchado por que se establecio 24p como el estándar fue porque Hollywood era tacaño y producir películas de 30 o 60p involucran más costos (sin mencionar que en general era una labor más pesada). No fueron abajo de 24p porque no capturan muy bien el movimiento.

Para juegos yo creo que si vas a mostrar demos o trailers o cosas así, puedes usar framerates de 60 en adelante. Solo considera que tus archivos van a ser más pesados y para ser vistos van a necesitar más ancho de banda (y no solo lo digo por YouTube, Twitch o servicios streaming). Algunas de las plataformas a las que vas a entregar video probablemente no soporten HFR.

Cita de: big_ed en 30 Octubre 2019, 16:22 PM- ¿el editor de video mas potente es Premiere?
El más caro (por lo menos $20 dolares al mes y no viene con AE), el más establecido y probablemente el más inestable.

Yo uso Davinci Resolve que es gratuito (tiene versión de paga), uno de los mejores editores para coloristas y viene todo incluido básicamente (fusión, fairlight, etc).

big_ed

Cita de: engel lex en 30 Octubre 2019, 17:08 PM
no soy experto pero he trabajado con ello

basicamente es una copia local en baja calidad, el asunto es que durante la edición de video usualmente no ves el video a maxima calidad ya que no es necesario la mayor parte del tiempo, sino que lo vez en una ventana reducida, por eso se crean copia de baja calidad para trabajar sobre ellas, tampoco vale la pena andar leyendo y cargando en ram un archivo de alta calidad (especialmente en formato raw que puede pesar cientos de mega por minuto de video)

en lineas generales si... transcodificar es basicamente cambiar el codec el video, pero tambien hace relacion a cambios de calidad dentro del mismo codec (por ejemplo pasar de 4k a 720)

basicamente el la forma humana del nombre "editor de video de acceso aleatorio" (como la ram sería memoria de secuencia no lineal), hace referencia a que puedes acceder y alterar cualquier punto sin afectar al resto, los lineales por lo menos solo te dejan introducir fotos o clip entre otros cambiando por consecuencia el largo

que vez los cambios aplicados en tiempo real, no tienes que procesar (renderizar) el video a un archivo para ver el resultado

depende del objetivo del trabajo, usualmente para video online de 720 en adelante 60fps

entonces no has buscado XD bastante solicitan, sobre todo enpresas que hacen videos de eventos, bodas, y esas cosas... lo mas seguro es que requieras unperfil inicial y un portafolio para ser tomado en cuenta

el cuaderno mas potente es el de linea simple? mas o menos esa es tu pregunta XD
un editor de video es un programa, su potencia es harina de otro saco, depende del fin y la empresa dependerá, puede ser after effects, premiere, final cut, entre otros...

busca un video en youtube, es mejor entenderlo visualmente

gracias

big_ed

Cita de: MinusFour en 31 Octubre 2019, 00:32 AM
Básicamente, es una fuente que fue modificada y actúa de representante (a.k.a proxy) para ser más eficiente a la hora de trabajar con el archivo. Hay varias razones por la cual el archivo fuente puede o no ser ideal para trabajar con. En primer lugar, puede ser que simplemente por la resolución del video agregar efectos y así, el editor tarde mucho en renderizar los cambios para el playback. Por eso tienes en los editores usualmente un dropbox con opciones como 1/2, 1/4 o 1/8. Esto corta la cantidad de pixeles, lo que significa que 1/4 de 8k por ejemplo no es 2k, sino 4k (porque 8k es 4 veces 4k).

Pero probablemente la razón por la cual vas a generar proxys para trabajar con ellos se deba al codec. Hoy en día, usamos H.264 para TODO. Las camarás DSLRs usan este codec, los software para grabar escritorios usan este codec, las webcams, tarjetas de captura de video, etc. Las webs cuelgan H.264 (Youtube, Netflix, Amazon, etc).

H.264 es un buen codec para entrega porque puedes comprimirlo drástiacmente y todavía disfrutar de una buena calidad de video. Pero para editar, este formato es horrible porque tu CPU tiene que estar descomprimiendo los frames que estás editando. Usualmente viene en Long GOP (que usa fotogramas para predecir, antes y después) pero la experiencia de edición cambia un poco más si vienen con solo intra fotogramas (All I).

La gente por lo general opta por otros formatos a la hora de editar (DNxHD/DNxHR, ProRes, Cineform, BlackMagic RAW, RedCode Raw, etc) a pesar de producir archivos más grandes. Si tu sistema está batallando con videos H.264, usualmente uno de estos formatos (varios de los que mencione son propietarios) simplifican la edición de video (porque no están tan comprimidos).

No, a eso se le llama un "Remux". MOV y MP4 son contenedores. Piensalo como si fueran formas que tienes que llenar y ambos tienen cajas donde tienes que llenar cosas como: "FPS", "Codec de Video", "Video", "Codec de Audio", "Pista 1", "Pista 2", etc. Cada uno de los contenedores puede llenar estas entradas en diferente orden o puede no usar otras cosas que los otros contenedores si. Los reproductores de video obviamente necesitan saber como obtener todos estos datos y los contenedores especifican como obtener está información.

Transcodificar tiene más que ver con coger el video/audio de los contenedores, decodificarlo y luego volver a codificar en otro codec. Por ejemplo, de H.264 a DNxHD o ProRes, de AAC a Vorbis o WAV.

Editar video y audio linealmente viene en parte de como se producían los videos y clips anteriormente. En el caso de las películas, se hacían las tomas y luego se cortaban y se unían los pedazos de película para hacer la producción final. Si querias desarrollar esas tomas en diferentes forma, cortar de otra manera, reusar esas tomas en otra parte de la película pues era más difícil.

NLE no tiene esos problemas porque no hace cambios directos sobre la fuente. Lo que te da más libertad de como quieres juntar los clips, que efectos aplicar, volver a reusar los clips, etc.

Yo creo que depende de lo que vayas a mostrar y también tiene que ver un poco tu preferencia. La gran mayoría de las películas que se han filmado son en 24p. Hay algunas películas que fueron filmadas en 48p (las películas del Hobbit) y 60p. Hace poco también salio una película que fue filmada en 120p (Gemini Man).

Por lo general, los videografos y cineastas tienen una predilección por 24p. ¿Porque? Si soy honesto, es porque así lo prefieren. La principal razón que yo he escuchado por que se establecio 24p como el estándar fue porque Hollywood era tacaño y producir películas de 30 o 60p involucran más costos (sin mencionar que en general era una labor más pesada). No fueron abajo de 24p porque no capturan muy bien el movimiento.

Para juegos yo creo que si vas a mostrar demos o trailers o cosas así, puedes usar framerates de 60 en adelante. Solo considera que tus archivos van a ser más pesados y para ser vistos van a necesitar más ancho de banda (y no solo lo digo por YouTube, Twitch o servicios streaming). Algunas de las plataformas a las que vas a entregar video probablemente no soporten HFR.
El más caro (por lo menos $20 dolares al mes y no viene con AE), el más establecido y probablemente el más inestable.

Yo uso Davinci Resolve que es gratuito (tiene versión de paga), uno de los mejores editores para coloristas y viene todo incluido básicamente (fusión, fairlight, etc).

gracias, todo claro, excepto lo del codec y lo de Lineal y Entrelazado...mejor voy a hacer como me recomendaron, verlo en youtube, sera mas facil que las definiciones

Te recomiendo el editor de video Kdenlive...es el que uso actualmente, ya que yo soy usuario Linux...pero Kdenlive es multiplataforma, gratuito