SeulQxQ's Blog
  • 首页
  • 归档
  • 分类
  • 标签
  • 关于
Deep3DSketch+_ Rapid 3D Modeling from Single Free-hand Sketches

Deep3DSketch+_ Rapid 3D Modeling from Single Free-hand Sketches

Deep3DSketch+: Rapid 3D Modeling from Single Free-hand Sketches 1 引言 & 相关工作 1. 引言 ​ 本文提出了一种名为Deep3DSketch+的新型3D建模方法,该方法可以从单个手绘草图中生成高保真度的3D模型。Deep3DSketch+采用了端到端的神经网络结构,包括==轻量级生成网络==和==结构感知的对抗
2023-10-17
论文笔记
#3D #略读
pi-GAN_ Periodic Implicit Generative Adversarial Networks for 3D-Aware

pi-GAN_ Periodic Implicit Generative Adversarial Networks for 3D-Aware

pi-GAN: Periodic Implicit Generative Adversarial Networks for 3D-Aware 1 提出的方法,贡献,相关工作 1. 方法 ​ 所提出的方法利用==基于SIREN==的神经辐射场表示来鼓励多视图一致性,从而允许从较宽的范围进行渲染相机姿势范围并提供可解释的 3D 结构。 SIREN隐式场景表示利用周期性激活函数,比ReLU
2023-10-10
论文笔记
#3D #精度
Shape, Pose, and Appearance from a Single Image via Bootstrapped Radiance Field Inversion

Shape, Pose, and Appearance from a Single Image via Bootstrapped Radiance Field Inversion

Shape, Pose, and Appearance from a Single Image via Bootstrapped Radiance Field Inversion 一、提出的方法与贡献 1.方法: ​ 作者提出了一种新的方法,将无条件生成模型与混合反演范式相结合,从单个图像中恢复三维信息。具体来说,他们使用神经辐射场(NeRF)来表示三维场景,并使用编码器产生潜在表示和
2023-10-09
论文笔记
#NeRF #精读
Efficient Geometry-aware 3D Generative Adversarial Networks

Efficient Geometry-aware 3D Generative Adversarial Networks

Efficient Geometry-aware 3D Generative Adversarial Networks 一、提出的方法、贡献、相关工作 1.方法: ​ 设计了一种混合显式-隐式3D感知网络,该网络使用内存高效的三平面表示显式地存储由轻量级隐式特征解码器聚合的轴对齐平面上的特征,以实现高效的体绘制,提高了3D基础渲染的计算效率。使用了一些偏离3D基础渲染的图像空间近似,同时
2023-10-09
论文笔记
#3D #精读
Pix2NeRF_ Unsupervised Conditional π-GAN for Single Image to Neural Radiance Fields Translation

Pix2NeRF_ Unsupervised Conditional π-GAN for Single Image to Neural Radiance Fields Translation

Pix2NeRF: Unsupervised Conditional π-GAN for Single Image to Neural Radiance Fields Translation 1 提出的方法, 贡献,相关工作 1. 方法 基于π-GAN模型,用于无条件3D感知图像合成的生成模型,它讲随机latent code映射到一类对象的辐射场。作者同时优化两个目标: (1)π-G
2023-09-24
论文笔记
#NeRF #精度
基础知识

基础知识

基本方法 np(torch).stack([], axis=)函数 作用:是将一组数组沿着新的轴堆叠起来。 123456789101112131415161718192021222324252627282930313233343536import numpy as npa = np.array([[1, 2, 3], [4, 5, 6]])b = np.a
2023-06-02
深度学习
#深度学习
NeRF源码解读

NeRF源码解读

imgs : 根据 .json 文件加载到的所有图像数据。(N,H,W,4)N 代表用于 train、test、val 的总数量(4:RGBβ) poses : 转置矩阵。(N,4,4) render_poses : 用于测试的 pose 。(40,4,4) i_split : [[0:train], [train:val], [val:test]] γ(p)=(sin(20πp),cos
2023-05-09
源码解读
#NeRF
相机参数

相机参数

1.相机坐标系 相机中有四个坐标系 世界坐标系:可以任意指定\(x_w\)轴和\(y_w\)轴 相机坐标系:原点位于小孔,z轴与光轴重合,\(x_c\)轴和\(y_c\)轴平行投影面 图像坐标系:原点位于光轴和投影面的交点,\(x_p\)轴和\(y_p\)轴平行投影面 像素坐标系:从小孔向投影面方向看,投影面的左上角为原点,uv轴和投影面两边重合 一般来说,标定的过程分为两
2023-05-07
计算机图形学
#图形学
视图变换 Viewing transformation

视图变换 Viewing transformation

1.视图变换 Viewing Transformation 视图变换的目的是将三维空间中的点\((x, y, z)\)(在世界坐标系中)映射到平面图像中(二维坐标系),以像素为基本表示单位。类似通过相机拍照得到一张相片。视图变换主要包括三个步骤: 相机变换(camera/view transformation) 投影变换(projection transformation) 视
2023-05-04
计算机图形学
#图形学 #NeRF
hello-blog

hello-blog

开启博客之旅~ 终于把我的博客搭好了,五一假期也结束了,那就开启新的学习之旅吧。享受最后的两年校园时光,做想做的,学想学的,愿毕业时自信又阳光!!!
2023-05-03
1234

搜索

载入天数... 载入时分...
Copyright © 2023 👉 SeulQxQ's Dream