「春风又绿加州岸,物是人非又一年」。WWDC 2017 keynote落下帷幕,新的iOS开发旅程也由此开启了。在iOS 11界面的重大改革背後,到底Apple又带来了什麽新的惊喜给我们这些「果粉」呢?
要用一句话来评价今年 Keynote 所展现出来的内容的话,就是小步革新。大的技术方面可以说只有 ARKit 可堪研究,但是我们还是看到了类似跨 app 拖拽,新的 Files 应用进一步突破 iOS 原有桎梏的更新。iOS 11,特别是配合新的硬件,相信会给用户带来不错的体验。
作为ios的开发技术人员,需要注意SDK的哪些特性呢?
新增SDK框架之Core ML
自从「阿法狗」出现以来,深度学习无疑成了技术开发行业的焦点。而Google也在去年就转变Mobile-first 到 AI-first 的战略。可以说一线互联网企业几乎都在押宝AI,目前机器学习尤其是深度学习,是最具有希望的一条路。
而Core ML所扮演的角色更多是将已经训练好的模型转化为ios可以理解的形式,并将新的数据「饲养」模型从而获取输出。在以前,可能需要自己寻找模型再写一些C++的代码来跨平台调用,而且难以利用ios设备的GPU性能和Metal。Core ML 的诞生将使用模型的门槛降低了很多。
Core ML在背後驱动了iOS视觉识别的Vision框架和Foundation中的语义分析相关API。普通开发者可以从API中直接获益,而且这部分内容在以前的版本的SDK中也存在;只是iOS 11 SDK中,它们会被集中到新的框架中,并将一些更具体和底层的控制开放出来。这给iOS的计算机视觉带来了新的可能。
新增SDK框架之ARKit
iOS SDK 11中Apple给开发者,尤其是AR相关的开发者带来了一个很棒的礼物,那就是ARKit。ARKit利用单镜头和陀螺仪,在对平面的识别和虚拟物体的稳定上做得相当出色。
ARKit极大降低了普通开发者玩AR的门槛,也是Apple现阶段用来抗衡VR的选项。而与之相应的,是一套并不很复杂的API。涉及的 View 几乎是作爲 SceneKit 的延伸,再加上在真实世界的定爲也已经由系统帮助处理,开发者需要做的大抵就是将虚拟物体放在屏幕的合适位置,并让物体之间互动。而利用 Core ML 来对相机内的实际物体进行识别和交互,可以说也让各类特效的相机或者摄影 app 充满了想像空间。
编辑器和编译器
Swift 自问世以来就备受好评,但是缓慢的编译速度,时有时无的语法提示,无法进行重构等工具链上的欠缺成爲了最重要的黑点。Xcode 9 中编辑器进行了重写,支持了对 Swift 代码的重构,将 VCS 提到了更重要的位置,并添加了 GitHub 集成,可以进行同局域网的无线部署和调试。另外,Xcode 9 中的索引系统也使用了新的引擎,据称在大型项目中搜索最高可以达到 50 倍的速度。
Named Color
这是一个极具个性化的变化。现在你可以在 xcassets 里添加顔色,然後在代码或者 IB 中引用这个顔色了。大概是这样的:
像是使用 IB 来构建 UI 的时候,一个很头疼的事情就是设计师表示我们要不换个主题色。你很可能需要到处寻找这个顔色进行替换。但是现在你只需要在 xcassets 里改一下,就能反应到 IB 中的所有地方了。
其他值得注意的变更
拖拽 – 很标准的一套 iOS API,不出意外地,iOS 系统帮助我们处理了绝大部分工作,开发者几乎只需要处理结果。
FileProvider 和 FileProviderUI – 提供一套类似 Files app 的界面,让你可以获取用户设备上或者云端的文件,相信会成爲以後文档相关类 app 的标配。
DeviceCheck – DeviceCheck 允许你通过你的服务器与 Apple 服务器通讯,并爲单个设备设置两个 bit 的数据。
PDFKit – 这是一个在 macOS 上已经长期存在的框架,但却在 iOS 上姗姗来迟。你可以使用这个框架显示和操作 pdf 文件。
IdentityLookup – 可以自己开发一个 app extension 来拦截系统 SMS 和 MMS 的信息。
Core NFC – 在 iPhone 7 和 iPhone 7 Plus 上提供基础的近场通讯读取功能。
Auto Fill – 从 iCloud Keychain 中获取密码,然後自动填充的功能现在开放给第三方开发者了。
本文来自投稿,不代表重蔚自留地立场,如若转载,请注明出处https://www.cwhello.com/40266.html
如有侵犯您的合法权益请发邮件951076433@qq.com联系删除