Bagaimana analisis terkini akan mendorong pengkomputeran yang lebih pintar

Banyak kes penggunaan analitik dan pembelajaran mesin menyambung ke data yang disimpan di gudang data atau tasik data, menjalankan algoritma pada set data lengkap atau subkumpulan data, dan mengira hasil pada arsitektur awan. Pendekatan ini berfungsi dengan baik apabila data tidak kerap berubah. Tetapi bagaimana jika data berubah dengan kerap?

Hari ini, lebih banyak perniagaan perlu memproses data dan mengira analisis dalam masa nyata. IoT mendorong peralihan paradigma ini kerana aliran data dari sensor memerlukan pemprosesan dan analisis segera untuk mengawal sistem hiliran. Analisis masa nyata juga penting di banyak industri termasuk penjagaan kesihatan, perkhidmatan kewangan, pembuatan, dan pengiklanan, di mana perubahan kecil dalam data dapat memberi kesan kewangan, kesihatan, keselamatan, dan perniagaan yang signifikan.

Sekiranya anda berminat untuk mengaktifkan analisis masa nyata - dan dalam teknologi baru yang memanfaatkan gabungan pengkomputeran tepi, AR / VR, sensor IoT pada skala, dan pembelajaran mesin pada skala - maka memahami pertimbangan reka bentuk untuk analisis tepi adalah penting. Kes penggunaan pengkomputeran tepi seperti drone autonomi, bandar pintar, pengurusan rantaian runcit, dan rangkaian permainan augmented reality semuanya mensasarkan untuk menggunakan analisis berskala besar dan sangat dipercayai.

Analisis tepi, analitik streaming, dan pengkomputeran tepi

Beberapa paradigma analisis, pembelajaran mesin, dan pengkomputeran tepi yang berbeza berkaitan dengan analisis terkini:

  • Edge analytics merujuk kepada analitik dan algoritma pembelajaran mesin yang digunakan untuk infrastruktur di luar infrastruktur awan dan "di pinggir" dalam infrastruktur yang dilokalkan secara geografi.
  • Streaming analytics merujuk kepada analitik pengkomputeran dalam masa nyata semasa data diproses. Analisis streaming boleh dilakukan di awan atau di tepi bergantung pada kes penggunaan.
  • Pemprosesan acara adalah cara untuk memproses data dan mendorong keputusan dalam masa nyata. Pemprosesan ini adalah sebahagian daripada analitik streaming, dan pembangun menggunakan seni bina berdasarkan peristiwa untuk mengenal pasti peristiwa dan mencetuskan tindakan hilir.
  • Edge computing merujuk kepada penggunaan komputasi ke peranti tepi dan infrastruktur rangkaian.
  • Komputasi kabut adalah seni bina yang lebih umum yang membelah pengiraan antara persekitaran tepi, dekat, dan pengkomputeran awan.

Semasa merancang penyelesaian yang memerlukan analisis mutakhir, arkitek mesti mempertimbangkan batasan fizikal dan kuasa, kos dan kebolehpercayaan rangkaian, pertimbangan keselamatan, dan keperluan pemprosesan.  

Sebab untuk menyebarkan analitik

Anda mungkin bertanya mengapa anda menggunakan infrastruktur untuk analisis? Terdapat pertimbangan teknikal, kos, dan kepatuhan yang menjadi faktor dalam keputusan ini.

Aplikasi yang mempengaruhi keselamatan manusia dan memerlukan ketahanan dalam seni bina pengkomputeran adalah satu kes penggunaan untuk analisis terkini. Aplikasi yang memerlukan latensi rendah antara sumber data seperti sensor IoT dan infrastruktur pengkomputeran analitik adalah kes penggunaan kedua yang sering memerlukan analisis terkini. Contoh kes penggunaan ini termasuk: 

  • Kereta memandu sendiri, mesin automatik, atau pengangkutan apa pun di mana sistem kawalan mengotomatisasi semua atau bahagian navigasi.
  • Bangunan pintar yang mempunyai kawalan keselamatan masa nyata dan ingin mengelakkan kebergantungan pada infrastruktur rangkaian dan awan untuk membolehkan orang masuk dan keluar dari bangunan dengan selamat.
  • Bandar pintar yang melacak pengangkutan awam, menggunakan meter pintar untuk penagihan utiliti, dan penyelesaian pengurusan sisa pintar. 

Pertimbangan kos adalah faktor penting dalam menggunakan analisis mutakhir dalam sistem pembuatan. Pertimbangkan satu set kamera yang mengimbas produk yang dihasilkan untuk kecacatan semasa menggunakan tali sawat bergerak pantas. Lebih efektif dari segi penggunaan peranti pengkomputeran tepi di kilang untuk melakukan pemprosesan gambar, daripada memasang rangkaian berkelajuan tinggi untuk menghantar gambar video ke awan.

Saya bercakap dengan Achal Prabhakar, VP kejuruteraan di Landing AI, sebuah syarikat AI industri dengan penyelesaian yang menumpukan pada penglihatan komputer. "Loji pembuatan sangat berbeza dengan aplikasi analisis arus perdana dan oleh itu memerlukan memikirkan semula AI termasuk penyebaran," kata Prabhakar kepada saya. "Kawasan fokus besar bagi kami adalah menggunakan model visi pembelajaran mendalam yang kompleks dengan pembelajaran berterusan secara langsung di barisan pengeluaran dengan menggunakan alat yang mampu tetapi komoditi."

Menyebarkan analitik ke kawasan terpencil seperti tapak pembinaan dan penggerudian juga mendapat manfaat daripada menggunakan analitik dan pengkomputeran terkini. Daripada bergantung pada rangkaian kawasan luas yang mahal dan berpotensi tidak dipercayai, jurutera menggunakan infrastruktur analitik canggih di lokasi untuk menyokong pemprosesan data dan analisis yang diperlukan. Sebagai contoh, sebuah syarikat minyak dan gas menggunakan penyelesaian analitik streaming dengan platform pengkomputeran yang diedarkan dalam memori ke tepi dan mengurangkan masa penggerudian sebanyak 20 peratus, dari 15 hari biasa hingga 12 hari. 

Pematuhan dan tadbir urus data adalah sebab lain untuk analisis terkini. Penyebaran infrastruktur yang dilokalkan dapat membantu memenuhi kepatuhan GDPR dan peraturan kedaulatan data lain dengan menyimpan dan memproses data yang dibatasi di negara tempat data dikumpulkan.

Merancang analisis untuk kelebihan

Malangnya, mengambil model dan analitik lain dan menggunakannya untuk infrastruktur pengkomputeran terkini tidak selalu remeh. Keperluan pengkomputeran untuk memproses kumpulan data yang besar melalui model data intensif komputasi mungkin memerlukan rekayasa semula sebelum menjalankan dan menggunakannya pada infrastruktur pengkomputeran tepi.

Untuk satu perkara, banyak pembangun dan saintis data kini memanfaatkan platform analisis peringkat lebih tinggi yang tersedia di awan awam dan swasta. IoT dan sensor sering menggunakan aplikasi tertanam yang ditulis dalam C / C ++, yang mungkin merupakan medan yang tidak biasa dan mencabar bagi saintis dan jurutera data asli cloud.

Isu lain mungkin model itu sendiri. Apabila para saintis data bekerja di awan dan meningkatkan sumber daya komputer berdasarkan permintaan dengan kos yang relatif rendah, mereka dapat mengembangkan model pembelajaran mesin yang kompleks, dengan banyak ciri dan parameter, untuk mengoptimumkan hasilnya sepenuhnya. Tetapi ketika menggunakan model ke infrastruktur pengkomputeran yang canggih, algoritma yang terlalu kompleks dapat meningkatkan biaya infrastruktur, ukuran peranti, dan keperluan kuasa secara dramatik.

Saya membincangkan cabaran menggunakan model AI ke hadapan dengan Marshall Choy, VP produk di SambaNova Systems. "Pembangun model untuk aplikasi AI canggih semakin memfokuskan pada model yang sangat terperinci untuk mencapai peningkatan dalam pengurangan parameter dan keperluan pengiraan," katanya. "Keperluan latihan untuk model yang lebih kecil dan terperinci ini tetap menakutkan."

Pertimbangan lain adalah bahawa menggunakan sistem analisis canggih yang sangat dipercayai dan selamat memerlukan merancang dan melaksanakan seni bina, sistem, rangkaian, perisian, dan model yang sangat toleran terhadap kesalahan.

Saya bercakap dengan Dale Kim, pengarah kanan pemasaran produk di Hazelcast, mengenai kes penggunaan dan kekangan semasa memproses data di tepi. Dia berkomentar bahawa, walaupun pengoptimuman peralatan, penyelenggaraan pencegahan, pemeriksaan jaminan kualiti, dan amaran kritikal semuanya tersedia di tepi, ada cabaran baru seperti ruang perkakasan yang terhad, aksesibilitas fizikal yang terhad, lebar jalur terhad, dan masalah keselamatan yang lebih besar.

"Ini bermaksud bahawa infrastruktur yang biasa anda gunakan di pusat data tidak semestinya berfungsi," kata Kim. "Oleh itu, anda perlu meneroka teknologi baru yang dirancang dengan mempertimbangkan seni bina pengkomputeran canggih."

Seterusnya dalam analisis

Kes penggunaan yang lebih utama untuk analitik terkini adalah fungsi pemprosesan data, termasuk penyaringan data dan agregasi. Tetapi kerana lebih banyak syarikat menggunakan sensor IoT pada skala besar, keperluan untuk menerapkan analitik, pembelajaran mesin, dan algoritma kecerdasan buatan secara real-time akan memerlukan lebih banyak penerapan. 

Kemungkinan di pinggir menjadikan masa depan pengkomputeran pintar yang sangat menarik kerana sensor menjadi lebih murah, aplikasi memerlukan analisis masa nyata yang lebih banyak, dan mengembangkan algoritma yang efektif dan efektif untuk kelebihan menjadi lebih mudah.