- Member Since: October 16, 2018
Description
Pada dasarnya, ketika kita merilis perangkat lunak, kita memerlukan akses ke jaringan untuk memungkinkan kita untuk berbicara dengannya, dan server untuk itu hidup. Infrastruktur menyediakan koneksi ini dan bertindak sebagai lapisan dasar di atas yang kita dapat membangun semua aplikasi kami. Ini dapat mengambil bentuk yang berbeda seperti infrastruktur sebagai layanan (IaaS) seperti Amazon Web Services, Google Cloud, atau Microsoft Azure. Ini bisa menjadi platform yang lebih terkelola sebagai layanan (PaaS), seperti Heroku atau Google App Engine. Dan itu bisa berjalan di pusat data Anda sendiri, di server Anda sendiri. Untuk waktu yang lama itu menantang untuk bereksperimen pada infrastruktur karena itu semua perangkat keras fisik yang Anda harus memodifikasi secara pribadi. Namun, dengan perusahaan yang beralih dari memiliki server sendiri untuk bermigrasi ke berbasis cloud, sekarang mungkin untuk memikirkan infrastruktur sebagai kode. Kita tidak perlu lagi secara fisik plug, rack, dan stack server setiap kali kita membutuhkan host untuk menjalankan perangkat lunak kita.
Kami dapat meluncurkan server virtual (juga dikenal sebagai instance) dan penampung melalui API. Kami juga dapat menulis kode yang melakukan ini untuk kami, dan memeriksanya ke sistem versi perangkat lunak kami seperti git. Ini memberi kita auditabilitas, reproduktifitas, otomatisasi, dan yang terbaik dari semua kemampuan untuk menjalankan eksperimen karena kita dapat dengan mudah menambahkan logika kondisional untuk menguji konfigurasi yang berbeda. Apa jenis eksperimen yang dapat Anda jalankan Tips SEO di infrastruktur Anda dan bagaimana itu berbeda dari pengujian A / B pada umumnya. Biasanya ketika orang berpikir tentang eksperimen, mereka berpikir tentang produk dan pemasaran pengujian A B, rekomendasi pemirsa, dll. Itu berdampak, tetapi penting untuk berpikir tentang eksperimen sampai ke dasar tumpukan Anda. Di dunia DevOps, kita dapat menjalankan eksperimen untuk menjawab pertanyaan seperti: bagaimana cara kerja jenis instance baru ini untuk profil aplikasi kita? Bagaimana jika kita mengubah I / O layer dari ephemeral disk ke volume EBS yang tahan lama.
Kami dapat mengukur baseline kinerja aplikasi kami dan kemudian menggunakan eksperimen untuk beralih dari sana, dengan risiko rendah. Perubahan ini dapat berdampak besar pada kualitas dan biaya. Bagaimana eksperimen sesuai dengan proses pembuatan dan penerapan. Bangunan melibatkan pengambilan kode dan mengubahnya menjadi perangkat lunak yang dapat dijalankan. Menerapkan Bisnis Lokal berarti mengambil artefak perangkat lunak yang dapat dijalankan dan menginstalnya (di server, instance, kontainer, atau bahkan sebagai fungsi) sehingga pelanggan Anda dapat menggunakannya. Ada dua enabler eksperimental yang umum digunakan saat ini di sekitar proses pembuatan dan penerapan: Integrasi Kontinyu dan Penyebaran Berkelanjutan (juga dikenal sebagai CI / CD). Idenya adalah bahwa kita membuat perubahan kecil setiap saat, dan kemudian ketika mereka ditambahkan kami membangun kembali perangkat lunak kami (integrasi berkelanjutan) dan dapat menyebarkan perangkat lunak itu (penyebaran berkelanjutan). Ini memungkinkan untuk iterasi gagasan yang cepat.
Ketika kita membuat perubahan kecil kita dapat dengan mudah memvalidasinya: dalam pementasan, melalui pengujian otomatis, dan bahkan dalam produksi. Dan kami mempermudah untuk memutar kembali ketika ada masalah, karena jauh lebih mudah untuk berargumentasi tentang dampak dari mengembalikan satu atau beberapa perubahan yang lebih kecil daripada kumpulan besar perubahan yang saling terkait. Bagaimana tim membatasi risiko saat meluncurkan fitur baru. Ada dua jenis metrik yang dapat terpengaruh saat Anda meluncurkan fitur baru: metrik kinerja sistem dan metrik bisnis Anda dan jika Anda melukai yang sebelumnya, Anda sering memengaruhi yang kedua. Pemasangan canary adalah metode umum untuk mengurangi risiko kinerja sistem. Nama ini berasal dari gagasan "burung kenari di tambang batu bara" yang miskin. Anda menggulirkan perubahan ke beberapa persentase kecil server Anda dan melihat bagaimana perubahan memengaruhi hal-hal seperti penggunaan CPU, latensi, tingkat kesalahan, dan banyak lagi. Ini mirip dengan peluncuran fitur, yang disediakan oleh produk Full Stack kami sendiri dan digunakan untuk meluncurkan fitur ke audiens kecil untuk mengukur dampaknya terhadap metrik bisnis.