Добрый день. Не могли бы помочь пожалуйста с решением следующей проблемы, хочу передавать по сети используя Gstreamer видео. Но, у меня входящие данные в виде изображений (на вход не получаю видеопоток), собственно возникла необходимость эти изображения транслировать в виде видео, после долгих поисков нашел подходящий код. (там на статичном изображении, это я могу переделать без проблем под свои данные). Код рабочий, указанное изображение без проблем выводит в окошке, но, для меня окошко не нужно и нужно это передавать по сети (чтобы используя айпи и порт в дальнейшем была возможность получить удаленно видео). Проблема с которой столкнулся - не могу понять как правильно сделать чтобы по сети передавались данные. Если есть и проще способ эту задачу решить буду благодарен узнать о них. Заранее огромное спасибо за помочь!
Код прикрепляю:
static GMainLoop *loop;
static void
cb_need_data (GstElement *appsrc,
guint unused_size,
gpointer user_data)
{
static gboolean white = FALSE;
static GstClockTime timestamp = 0;
GstBuffer *buffer;
guint size,depth,height,width,step,channels;
GstFlowReturn ret;
IplImage* img;
guchar *data1;
GstMapInfo map;
img=cvLoadImage(«frame1.jpg»,CV_LOAD_IMAGE_COLOR);
height = img->height;
width = img->width;
step = img->widthStep;
channels = img->nChannels;
depth = img->depth;
data1 = (guchar *)img->imageData;
size = height*width*channels;
buffer = gst_buffer_new_allocate (NULL, size, NULL);
gst_buffer_map (buffer, &map, GST_MAP_WRITE);
memcpy( (guchar *)map.data, data1, gst_buffer_get_size( buffer ) );
/* this makes the image black/white */
//gst_buffer_memset (buffer, 0, white ? 0xff : 0x0, size);
white = !white;
GST_BUFFER_PTS (buffer) = timestamp;
GST_BUFFER_DURATION (buffer) = gst_util_uint64_scale_int (1, GST_SECOND, 2);
timestamp += GST_BUFFER_DURATION (buffer);
g_signal_emit_by_name (appsrc, «push-buffer», buffer, &ret);
if (ret != GST_FLOW_OK) {
/* something wrong, stop pushing */
g_main_loop_quit (loop);
}
}
gint
main (gint argc,
gchar *argv[])
{
GstElement *pipeline, *appsrc, *conv, *videosink;
/* init GStreamer */
gst_init (&argc, &argv);
loop = g_main_loop_new (NULL, FALSE);
/* setup pipeline */
pipeline = gst_pipeline_new («pipeline»);
appsrc = gst_element_factory_make («appsrc», «source»);
conv = gst_element_factory_make («videoconvert», «conv»);
videosink = gst_element_factory_make («autovideosink», «videosink»);
/* setup */
g_object_set (G_OBJECT (appsrc), «caps»,
gst_caps_new_simple («video/x-raw»,
«format», G_TYPE_STRING, «RGB»,
«width», G_TYPE_INT, 640,
«height», G_TYPE_INT, 360,
«framerate», GST_TYPE_FRACTION, 1, 1,
NULL), NULL);
gst_bin_add_many (GST_BIN (pipeline), appsrc, conv, videosink, NULL);
gst_element_link_many (appsrc, conv, videosink, NULL);
//g_object_set (videosink, «device», «/dev/video0», NULL);
/* setup appsrc */
g_object_set (G_OBJECT (appsrc),
«stream-type», 0,
«format», GST_FORMAT_TIME, NULL);
g_signal_connect (appsrc, «need-data», G_CALLBACK (cb_need_data), NULL);
/* play */
gst_element_set_state (pipeline, GST_STATE_PLAYING);
g_main_loop_run (loop);
/* clean up */
gst_element_set_state (pipeline, GST_STATE_NULL);
gst_object_unref (GST_OBJECT (pipeline));
g_main_loop_unref (loop);
return 0;
}