小米13 Lite出现在Google Play Console数据库中

IT之家 1 月 12 日消息,在推出小米 13 和小米 13 Pro 组成的小米 13 系列之后,小米可能计划很快推出同系列的另一款智能手机。“小米 13 Lite”已现身 Google Play Console 数据库,设备代号为 Ziyi。MySmartPrice 报告称,小米 13 Lite 预计将是小米 Civi 2 的更名版本。

该设备设计渲染图看起来很像小米 Civi 2。该报告指出,即将推出的智能手机将配备 1080×2400 像素分辨率和 440ppi 显示屏,这款智能手机将采用高通骁龙 7 Gen 1 芯片和高达 8GB 内存,预装 Android 12 系统。

IT之家了解到,小米 Civi 2 手机配备 6.55 英寸 FHD+ AMOLED 面板,刷新率为 120Hz。后置三摄像头,包括 50MP 主摄像头、 50MP 超广角镜头和 2MP 微距相机。采用双前置摄像头,包括 32MP 主摄像头和 32MP 超广角摄像头,用于自拍和视频通话。

与此同时,一份报告称小米计划在即将于 2 月 27 日至 3 月 2 日在西班牙巴塞罗那举行的 MWC 2023 上向全球观众推出小米 13 系列手机。小米还可能发布新的小米 Ultra 型号,配备徕卡影像技术。

Glory Magic5 Lite搭载骁龙695处理器出现在Google Play上

不出意外,荣耀很有可能会在农历新年结束后不久发布旗下旗舰系列机型荣耀 Magic 5。而在近日一款命名为荣耀 Magic5 Lite 则提前现身 Google Play。

根据相关信息来看,荣耀 Magic5 Lite 正面搭载一块居中挖孔曲面屏,同时处理器为高通骁龙 695 芯片。不过需指出的是,众多国内手机厂商经常采用旗舰型号 + Lite 的命名方式面向海外市场发布新品,因此荣耀 Magic5 Lite 不出意外仅是一款「撞名」的入门级 5G 手机。

结合近期爆料,荣耀 Magic5 系列将会采用圆形镜组,后置三摄方案。具体镜组规格上,该系列规格最高的 Magic 5 至臻版将会搭载索尼 1 英寸超大底 5000 万像素 IMX989 传感器,标准版、Pro 版本或分别搭载 IMX800、IMX878 主摄,全系三款机型均搭载高通骁龙 8 Gen 2 处理器,以及京东方定制高刷屏。

荣耀 Magic5 系列手机的具体发布时间仍有待确认。

随着Linux Lite 6.0 RC1的发布,Google Chrome已经成为默认浏览器

IT之家 4 月 25 日消息,随着 Ubuntu 22.04 已经发布,我们将逐渐开始看到那些基于 Canonical 系统的 Linux 发行版更新。

例如,基于 Ubuntu 22.04 的 Linux Lite 6.0 的第一个候选版本现在已经推出,Linux Lite 在那些从微软 Windows 转到 Linux 的人中非常受欢迎。

Linux Lite 开发人员 Jerry Bezencon 今天宣布对即将推出的 Linux Lite 6.0 release 的候选发布开发版进行公开测试。

与之前的 5.x 系列相比,Linux Lite 6.0(称为 Fluorite)也算是一个主要版本更新,基于刚刚发布的 Ubuntu 22.04 LTS(Jammy Jellyfish)操作系统,并且带来许多新的变化。Linux Lite 6.0 将采用长期支持版本的 Linux 5.15 系列内核。

首先,该发行版终于使用了最新的 Xfce 4.16 桌面环境,并且采用了一个名为 Materia 的新默认窗口主题,可选 Light 和 Dark 风格,而且可以用更现代的方式支持 GTK4 应用程序,以及广泛的桌面环境支持。当然,Papirus 仍是默认图标主题。

IT之家了解到,Linux Lite 6.0 带来了新的默认应用程序,包括 System Monitoring Center 系统监控程序、Google Chrome 网络浏览器和 El-Torito ISO。此外,开发人员承诺还将推出 Linux Lite 主要版本以及 LibreOffice 办公套件的最新稳定版。

在其他值得一提的变化中,Linux Lite 6.0 还采用了一个新的 GRUB 引导加载程序菜单,它还附带一个新版本的 Whisker Menu 应用程序和一个名为 Lite Patch 的新的内部工具,主要是用于应用紧急安全修复程序。

最终的 Linux Lite 6.0 版本将于 2022 年 6 月 1 日发布。如果您想在此之前尝试一下新版本或探索新功能,您可以下载候选版本 (Release Candidate) ( RC) 。当然,这是一个发布预览版本,想来你应该不会拿它装在生产环境中去用。

Linux Lite 6.0 RC1将Google Chrome发布为默认的web浏览器

Ubuntu 22.04已经发布,我们将开始看到随后那些基于Canonical操作系统的所有Linux发行版的更新。例如,基于Ubuntu 22.04的Linux Lite 6.0的第一个候选版本现在已经推出,Linux Lite在那些从微软Windows转到Linux的人中非常受欢迎。

Linux Lite 6.0 RC1的显著特点是抛弃了Mozilla Firefox作为默认网络浏览器,而改用Goole Chrome 100。该操作系统目前使用Linux内核5.15.0-25和桌面环境Xfce 4.16.3。它预装了一些优秀的软件,如GIMP 2.10.30、雷鸟91.7.0、VLC 3.0.16和LibreOffice7.2.6.2。

“这个系列的主题是包容和新鲜。最新的浏览器,最新的办公套件,最新的定制软件。我的目标一直是提供一个精简的、功能齐全的操作系统。在6x系列中,这将是我们持续关注的焦点。这个版本的新功能是辅助技术。以屏幕阅读器、桌面放大器和虚拟键盘的形式出现。所有的工具都确保我们的听力和视力受损的社区不再被遗忘。一个新的主题,一个新的系统监视器和管理器完善了主要的新功能,”Linux Lite首席开发者Jerry Bezencon说。

Bezencon补充说:”现在,Firefox作为Ubuntu的一个Snap包,而用户需要能够处理尽可能少的包管理器,在这种情况下,Chrome是明显的替代选择。巨大的市场份额,熟悉的Windows系统,几乎所有你扔给它的东西都能用,所有这些都有一个叫Google的小公司的支持。我们还包括一个由Virus Total提供的内置病毒扫描引擎(默认禁用)。现在,Chrome浏览器还会询问你是否希望在打开文件之前对其进行扫描。要启用这一功能,只需在Chrome扩展程序下将其打开即可”。

开发人员在下面分享了已知的问题:

在传统安装结束时没有弹出媒体的提示,在UEFI安装结束时有提示。

发行说明 – 在第一个安装程序幻灯片上不起作用。

桌面图标 – 仅支持英文。

Dropbox:如果遭遇报错,需要运行设置两次。

由于一个无法解决的问题,在这个系列的Linux Lite Tweaks中没有Grub编辑功能。如果你是双启动或多启动,Ubuntu字样将显示在Grub菜单中,如果觉得看着不舒服,可以试试Grub定制器。

Grub菜单显示Linux Lite为”Ubuntu”。

如果你已经准备好尝试Linux Lite 6.0 RC1,你现在可以在这里下载它。请记住,这只是一个候选版本 — 可能会有一些错误。换句话说,不应该在生产环境中进行。最终版本计划于2022年6月1日发布;如果你打算在你的主电脑上使用它,等待稳定版本是明智的。

Tensorflow Lite,谷歌移动终端深度学习框架

TensorFlow Lite 是一款 TensorFlow 用于移动设备和嵌入式设备的轻量级解决方案。

TensorFlow 可以在多个平台上运行,从机架式服务器到小型 IoT 设备。但是随着近年来机器学习模型的广泛使用,出现了在移动和嵌入式设备上部署它们的需求。而 TensorFlow Lite 允许设备端的机器学习模型的低延迟推断。

设计初衷

  • 轻量级:允许小 binary size 和快速初始化/启动的设备端机器学习模型进行推断。
  • 跨平台:运行时的设计使其可以在不同的平台上运行,最先允许的平台是安卓和 iOS。
  • 快速:专为移动设备进行优化,包括大幅提升模型加载时间,支持硬件加速。

现在,越来越多移动设备内置了专门的自定义硬件以高效处理机器学习工作负载。TensorFlow Lite 支持安卓神经网络 API,以充分利用新的可用加速器。

当加速器硬件不可用时,TensorFlow Lite 返回至经优化的 CPU 执行操作,确保模型仍然可在大量设备上快速运行。

架构

下图展示了 TensorFlow Lite 的架构设计:

组件包括

  • TensorFlow 模型(TensorFlow Model):训练后的 TensorFlow 模型,保存在磁盘中。
  • TensorFlow Lite 转换器(TensorFlow Lite Converter):该程序将模型转换成 TensorFlow Lite 文件格式。
  • TensorFlow Lite 模型文件(TensorFlow Lite Model File):该格式基于 FlatBuffers,经过优化以适应最大速度和最小规模。

然后将 TensorFlow Lite 模型文件部署到移动 App 中:

  • Java API:安卓设备上适用于 C++ API 的便利封装。
  • C++ API:加载 TensorFlow Lite 模型文件,启动编译器。安卓和 iOS 设备上均有同样的库。
  • 编译器(Interpreter):使用运算符执行模型。解释器支持选择性加载运算符;没有运算符时,编译器只有 70KB,加载所有运算符后,编译器为 300KB。这比 TensorFlow Mobile(具备一整套运算符)的 1.5M 要小得多。
  • 在选择的安卓设备上,编译器将使用安卓神经网络 API 进行硬件加速,或者在无可用 API 的情况下默认执行 CPU。

开发者还使用 C++ API 实现自定义 kernel,它可被解释器使用。

模型

TensorFlow Lite 已经支持多个面向移动端训练和优化的模型:

  • MobileNet:一种能够识别超过 1000 种不同物体的视觉模型,专为移动端和嵌入式设备设计;
  • Inception V3:一种图像识别模型,功能上类似于 MobileNet,但能提供更高的准确率(当然模型也更大);
  • Smart Reply:一种设备端对话模型,能对接收到的会话聊天信息提供触发性应答。第一方和第三方通信 App 可在 Android Wear 上使用该特性。

Inception v3 和 MobileNet 都在 ImageNet 数据集上训练过,你可以通过迁移学习轻松地在自己的图像数据集上重新训练这些模型。

项目地址

https://github.com/tensorflow/tensorflow

谷歌在tensorflow Lite机器学习框架上实现新突破

2017年,I / O开发者大会的众多公告之一就是移动设备上的机器学习的TensorFlow Lite。从今天开始,Android和iOS优化版的ML库现在可以作为开发者预览版了。

谷歌I/O开发者大会

谷歌称这款名为“TensorFlow”的Lite版本在TensorFlow Mobile的基础上进行了演变,该公司将在移动和嵌入式设备上部署机器学习模型。Android工程副总裁戴夫·伯克指出,这是“在多种多样芯片生态系统中实现硬件加速神经网络处理的关键一步。”

TensorFlow Lite的内存占用很低,这使得它对移动设备上可用的有限资源的征税减少,同时也减少了处理器的密集性,以使应用程序快速运行。

TensorFlow Lite被视为TensorFlow Mobile的替代品,但考虑到预览状态,TensorFlow Mobile是目前稳定应用的选择。TensorFlow Mobile允许开发人员在移动设备上集成在桌面环境中工作的TensorFlow模型。然而,使用TensorFlow Lite创建的应用程序将比使用TensorFlow Mobile的类似应用程序更轻、更快。但并不是所有的用例都得到了TensorFlow Lite的支持,目前有三种模式进行了训练和优化。

模型

目前它仍然在“积极开发”中,这个最初的版本关注的是关键模型的性能,也就是说,它是经过优化和培训的:

  • MobileNet:一种能够识别1000个不同对象类的视觉模型,专门为在移动和嵌入式设备上高效执行而设计

  • Inception v3:一个图像识别模型,功能类似于MobileNet,虽然体积大了些,但它能提供更高的准确性

  • Smart Reply:一种设备上的对话模式,能够在接收到聊天信息之后,提供触发性应答。第一方和第三方的通信应用可以在Android Wear上使用

TensorFlow Lite专注于三个领域:

  • 轻量级:支持对设备机器学习模型进行一个小型二进制规模和快速初始化/启动的要求满足

  • 跨平台:可以在许多不同的平台上运行,先从Android和iOS开始

  • 高速:对移动设备进行快速优化,包括显著提高模型加载次数,支持硬件加速

架构

组件

  • TensorFlow 模型:一个保存在磁盘上训练好的TensorFlow 模型

  • TensorFlow Lite转换器:一个将模型转换为TensorFlow Lite文件格式的程序

  • TensorFlow 模型文件:基于FlatBuffers格式的模型文件,已针对最大速度和最小尺寸进行了优化

现在越来越多的移动设备使用特制的定制硬件来更有效地处理ML的工作负载”。因此,它支持使用Android 8.1开发者预览版的Android神经网络API。即使没有加速器硬件,TensorFlow Lite也可以在CPU上运行。

虽然你可以通过基于TensorFlow Lite的应用程序来处理设备上的新数据,但在这一点上,实际上不可能在设备本身上训练新的机器学习模型。在它目前的形式中,TensorFlow Lite支持推理而不是训练。