通过斗鸡眼,将左右两张相似的图片叠加到一起看,就会有3D效果。
3D图片,3D眼镜,3D视频等原理类似,都是通过两眼视觉差引起脑补产生3D效果。
图片:
?图片来源:
一些我拍摄的真*裸眼3D照片 - 哔哩哔哩https://www.bilibili.com/read/cv13066106/?spm_id_from=333.999.0.0
上边两幅图片在斗鸡眼下,具有3D效果,那两张图片有什么区别吗?
1)通过ps我们将两张图片叠加,然后快速反复隐藏一张图片,就可以看到两张图片有角度差。
也就是拍照的时候,两张图片的镜头有移动。
2)简单的分析,就知道如何拍照,但是如果我只有一张图片怎么处理下游3D效果呢,开干。
单张图片处理成裸眼3D图片,使图片叠加具有3D效果
先上效果图:
斗鸡眼叠加图片,就可以看到任务和背景分层次了,因为我对背景和人物两个层次处理了。
如果仅仅把一个图片复制2次,就算斗鸡眼叠加和原图一样效果即没有3D效果,因为没有角度差。
步骤:
首先打开ps打开原图,原图是256*256,将人物勾选
然后复制图层,并把图层拉扁,即左边位置不动,把右侧往左拉(shift+鼠标移动右边界)
效果:
到这里人物就处理好了,原图和移动后叠加图,(导出时把原图隐藏再导出)
接下来处理背景,
同理,前边的人物向左压缩,那么背景我们就反着来,把背景往右压扁。
ctrl+shift+i可以对选取反选,就很容易找到背景。
效果:
可以看到右侧门框位置不动,仅仅把背景往左拉伸了。
ps图层如下:
原图不用变,我们仅仅做一个256的前景右移,背景左移的图片导出即可。
最终制作的人物和背景偏移图片就好了,
将此图片和处理后的图片放到图片中。
上代码:
import org.bytedeco.ffmpeg.global.avcodec;
import org.bytedeco.ffmpeg.global.avutil;
import org.bytedeco.javacv.FFmpegFrameGrabber;
import org.bytedeco.javacv.FFmpegFrameRecorder;
import org.bytedeco.javacv.FFmpegLogCallback;
import org.bytedeco.javacv.Frame;
import org.bytedeco.javacv.Java2DFrameConverter;
import javax.imageio.ImageIO;
import java.awt.*;
import java.awt.image.BufferedImage;
import java.io.File;
//裸眼3d图片,斗鸡眼
public class TwoPic2 {
private static final String LEFT_IMAGE_PATH = "D:\\desktop\\left.png";
private static final String RIGHT_IMAGE_PATH = "D:\\desktop\\right2.png";
private static final String all = "D:\\desktop\\all.png";
//把图片交替合并为视频
public static void main(String[] args) throws Exception {
String outPutFile = "D:\\desktop\\all.mp4";
FFmpegLogCallback.set();
int imgWidth = 256;
int imgHeight = 256;
// FFmpegFrameRecorder:处理视频帧
//视频宽高最好是按照常见的视频的宽高 16:9 或者 9:16
FFmpegFrameRecorder recorder = new FFmpegFrameRecorder(outPutFile, imgWidth, imgHeight);
//设置视频编码层模式
recorder.setVideoCodec(avcodec.AV_CODEC_ID_MPEG4);
//1-代表1帧/s
Double FrameRate = 30d;
recorder.setFrameRate(FrameRate);
/*
* videoBitRate这个参数很重要,当然越大,越清晰,但最终的生成的视频也越大。
* 查看一个资料,说均衡考虑建议设为videoWidth*videoHeight*frameRate*0.07*运动因子,运动因子则与视频中画面活动频繁程度有关,如果很频繁就设为4,不频繁则设为1
*/
int motionFactory = 1;
recorder.setVideoBitrate((int) ((imgWidth * imgHeight * FrameRate) * motionFactory * 0.07));
//设置视频图像数据格式
int pixelFormat = avutil.AV_PIX_FMT_YUV420P;
recorder.setPixelFormat(pixelFormat);
String format = "mp4";
recorder.setFormat(format);
// 双通道(立体声)
// recorder.setAudioChannels(grabber.getAudioChannels());
recorder.setAudioChannels(2);
recorder.setAudioCodec(avcodec.AV_CODEC_ID_AAC);
recorder.start();
// 录制视频
Java2DFrameConverter converter = new Java2DFrameConverter();
//URL imgUrl = new URL("D:\\desktop\\test\\img1.png");
//根据每秒的帧数 记录多少次图片,
BufferedImage left= ImageIO.read(new File(LEFT_IMAGE_PATH));
BufferedImage right= ImageIO.read(new File(RIGHT_IMAGE_PATH));
Frame a =converter.getFrame(left);
Frame b =converter.getFrame(right);
int c=20;
while (c>=0){
c--;
for (int i = 0; i < 15; i++) {
recorder.record(converter.getFrame(ImageIO.read(new File(LEFT_IMAGE_PATH))));
recorder.record(converter.getFrame(ImageIO.read(new File(RIGHT_IMAGE_PATH))));
}
}
//
recorder.close();
}
}
这个代码是将两个256*256图片放到一张图片。
教程完毕。
通过本文章,你应该理解了裸眼3D其实很简单。
欢迎大家关注下哈,javacv相关文章持续增加。