谷歌Pixel 4让苹果iPhone得到了广泛的色彩捕捉支持
谷歌即将推出的智能手机 - 谷歌Pixel 4--最近一直受到无数谣言和泄密的影响。虽然谷歌“泄露”Pixel 3继任者的形象可能会减缓每天流传的谣言数量,但它并没有减弱热情。而现在一份新的报告显示,Google Pixel 4将配备类似iPhone的宽色捕捉支持。
Apple于2016年推出了iPhone 7,推出了P3色彩空间.P3色彩空间的色彩范围比PRL智能手机标准的sRGB色彩空间高出25%。那么这有什么不同呢?根据XDA开发者的报告,P3色彩空间或色域允许Apple iPhone捕捉更多颜色并增加图像深度。相反,Android会在sRGB颜色范围内剪切最接近其范围的图像中的颜色。因此,iPhone显示图像,其中颜色更鲜艳,更接近我们看到的,而Pixel智能手机确实捕获具有相同细节的图像。
这是由于Android应用程序缺乏色彩管理而发布的。但随着今年10月Pixel 4智能手机的问世,这可能很快就会改变。
早在今年5月,谷歌就宣布推出广泛的彩色图像。但是,该公司没有提供相同的时间表。但现在,XDA开发人员已经发现用于在Google Camera应用程序中捕获P3色域的代码。当他们对此功能进行测试时,他们发现智能手机能够轻松捕获sRGB色彩空间之外的图像。该出版物注意到的差异是微妙的,但P3色彩空间支持允许智能手机捕捉更接近现实生活对象的图像。除了谷歌相机,谷歌照片还在其平台上实施照片的色彩管理。
随着发展的步伐,谷歌似乎计划在其Pixel 4智能手机中推出P3色彩空间支持。但是,我们将不得不等待公司了解更多细节。
谷歌即将推出的智能手机 - 谷歌Pixel 4--最近一直受到无数谣言和泄密的影响。虽然谷歌“泄露”Pixel 3继任者的形象可能会减缓每天流传的谣言数量,但它并没有减弱热情。而现在一份新的报告显示,Google Pixel 4将配备类似iPhone的宽色捕捉支持。
Apple于2016年推出了iPhone 7,推出了P3色彩空间.P3色彩空间的色彩范围比PRL智能手机标准的sRGB色彩空间高出25%。那么这有什么不同呢?根据XDA开发者的报告,P3色彩空间或色域允许Apple iPhone捕捉更多颜色并增加图像深度。相反,Android会在sRGB颜色范围内剪切最接近其范围的图像中的颜色。因此,iPhone显示图像,其中颜色更鲜艳,更接近我们看到的,而Pixel智能手机确实捕获具有相同细节的图像。
这是由于Android应用程序缺乏色彩管理而发布的。但随着今年10月Pixel 4智能手机的问世,这可能很快就会改变。
早在今年5月,谷歌就宣布推出广泛的彩色图像。但是,该公司没有提供相同的时间表。但现在,XDA开发人员已经发现用于在Google Camera应用程序中捕获P3色域的代码。当他们对此功能进行测试时,他们发现智能手机能够轻松捕获sRGB色彩空间之外的图像。该出版物注意到的差异是微妙的,但P3色彩空间支持允许智能手机捕捉更接近现实生活对象的图像。除了谷歌相机,谷歌照片还在其平台上实施照片的色彩管理。
随着发展的步伐,谷歌似乎计划在其Pixel 4智能手机中推出P3色彩空间支持。但是,我们将不得不等待公司了解更多细节。