2017년 6월 21일 수요일

WWDC 2017에서 발표된 Core ML입니다.

아직은 베타 버전만 설치하고 테스트를 많이 못해보고 있습니다.

https://developer.apple.com/videos/play/wwdc2017/703/

아직 영상을 못보신 분들은 위의 링크를 타고 들어가면 됩니다. 맥에서 보거나 아니면 사파리에서 플레이해야 합니다.

애플이 공개한 4개의 미리 트레이닝 된 모델들이 있습니다.

https://developer.apple.com/machine-learning/



첫번째 화면은 Vision API입니다. 카메라로 물체를 촬영하면 하단에 어떤 객체인지를 감지해서 알려줍니다.


비전 API도 있고 NLP(자연어 처리)등을 지원합니다.


다양한 활용방향입니다. 엔진 오픈소스로 공개되고 파이썬으로 되어 있네요.


모델을 만들고 아래와 같이 뷰컨트롤러에 코딩을 추가하면 됩니다. Super easy~~



댓글 없음:

댓글 쓰기

참고: 블로그의 회원만 댓글을 작성할 수 있습니다.

요즘 새로운 과정을 기획하면서 react.js + next.js를 OpenAI API와 같이 사용하는 과정을 만들고 있습니다. ㅎㅎ

 오랜만에 웹 기술들을 공부하니 재미있네요. ㅎㅎ  쭉 파이썬 과정들을 운영하고 있었는데 좀 더 범위를 넓혀서 아이폰 앱 개발과정 with ChatGPT,  웹 프로그래밍 with ChatGPT, AI시대의 AI어시스턴트 활용하기와 같은 글을 쓰고, ...