Miért kellene egy szoftvertesztelő mérnöknek megtanulnia a Big Data és a Hadoop ökoszisztéma technológiákat?



Tudja meg, miért kell egy szoftvertesztelő mérnöknek megtanulnia a Big Data-t és a Hadoop-ot, és hogy a Big Data-képzés és a Hadoop-tanúsítás hogyan segíthet neki a legjobb Big Data-munkák kiválasztásában.

A tesztelési folyamat érthető módon a legfontosabb szempont minden szoftver tartományban. A Testing Engineer szerepkör kiterjed különböző területekre, amikor a szervezet úgy dönt, hogy alkalmazkodik egy továbbfejlesztett technológiához. Ebben a blogbejegyzésben vitassuk meg, miért kellene egy szoftvertesztelő mérnöknek megtanulnia a Big Data és a Hadoop ökoszisztéma technológiákat.

Ha még nem ismeri a Big Data / Hadoop világát, tekintse át néhány bejegyzésünket , és





Térjünk rá egyenesen a téma aprólékos részleteire

Miért kellene egy szoftvertesztelő mérnöknek megtanulnia a Big Data és a Hadoop programokat?

Karrier növekedés:



Szoftvertesztelő mérnök megtanulja a Big Data-t és a Hadoop-ot

A fenti ábra magától értetődő. Ez egyértelműen azt mutatja, hogy a Hadoop-tal kapcsolatos munkák növekedési üteme sokkal magasabb, mint a szoftver-tesztelési munkáké. A szoftveres teszteléssel kapcsolatos munkák maximális növekedési üteme megközelítőleg 1,6%, de a Hadoop alapú tesztelési munkák növekedési üteme óriási 5% (hozzávetőlegesen).

A Hadoopot tanuló emberek 80% -a nem fejlesztői háttérrel rendelkezik. Te is közéjük tartozhatsz.



A jelenlegi tesztelési gyakorlatok korlátai az alkalmazások tesztelése során a Big Data problémák megoldására:

  • A szoftveres tesztelési megközelítéseket az adatok (például az adatok torzulása, az adatkészletek méretének eltérése stb.) Vezérlik, nem pedig a tesztelési forgatókönyvek.
  • A szokásos adategyeztetési eszközök (például a win diff stb.) Nem működnek nagy mennyiségű adattal. Ez korlátozássá válik a szoftvertesztelő mérnök készségei számára.

Közepes méretű adatok esetén az adatok HBase táblákként tárolhatók, és a bemeneti adatkészletből ellenőrizhetők az üzleti logika alkalmazásával kis bemeneti halmazon.

A nagyméretű adatokhoz a nagy adattechnikák olyan egyedi készségeket kínálnak a mérnököknek, amelyeket nagy és összetett adathalmazok tesztelésére használnak, és számos lehetőséget találnak a meteorológia, a genomika, a konektomika, az összetett fizikai szimulációk, valamint a biológiai és környezeti kutatások területén.

A tesztelés helyzete - Szakértői vélemények:

Scott Barber, a rendszer teljesítményének tesztelésére szakosodott, elismert tesztelő, előadó és író a teszteléssel kapcsolatos témában igazán hathatós és hatásos szavakat idézett a Tesztelés mező jelenlegi helyzetéről.

a pythonban egy osztály __init__ metódusát használják

Számos beszélgetést folytattak különböző társadalmi médiákról a tesztelés „haldokló szakmává” válásának lehetőségéről, és Scott egyetért abban, hogy a tesztelés mint szakma drámai átalakulás közepette van.

Nos, ez a kijelentés elég drámai volt, vessünk egy pillantást a tényekre, és nézzük meg mi is történik a Tesztelés mezőben.

Egy pillantás a Hadoop / Big Data Tester munkaprofiljára:

Az alábbiakban egy bizonyos szervezet által támasztott követelmény a Hadoop Tester követelményéhez:

A fenti követelmény figyelembevételével láthatjuk, hogy a tesztelési készségekre nagyrészt szükség van, és ezek alkotják ennek a munkakörnek az alapját. A szoftver tesztelő mérnöktől a Big Data vagy a Hadoop tesztelővé váláshoz csak annyi szükséges, hogy frissítse magát Big Data / Hadoop készségekkel.

Mennyire könnyű áttérni a Hadoop / Big Data-ra:

  • Java-ra vagy nem Java-ra - Rugalmasság választani:

Azok számára, akik szakértők a Java-ban, az átmenet egy torta séta, csakúgy, mint egy nyílt forráskódú, Java-alapú programozási keretrendszer. Az itt használt MapReduce szkriptek Java nyelven íródtak. Most már teljesen nyilvánvaló, hogy a Hadoopon való munkavégzéshez elengedhetetlen a Java-tudás.

A fentiek kimondásával ez nem azt jelenti, hogy a nem Java szakértőknek nagy út áll előttük. A Hadoop szépsége, hogy számos eszközzel rendelkezik, amelyek a 'Nem Java' szakértő használhatja. Néhány Hadoop eszköz, például a Hive, a Pig és a Sqoop nem igényel Java ismereteket, mivel nagyban támaszkodnak az SQL-re.

  • Megosztott készségek és alkalmazási platformok egy tesztelő szakember és a Hadoop szakember között:

Elsőre kissé elsöprő lehet az az ötlet, hogy a komfort zónából egy új tartományba, például a Big Data / Hadoop-ba költözzön. De be kell látni, hogy a Testing és a Hadoop nem zárják ki egymást. Itt van egy lista a közöttük használt készségekről és platformokról, amelyek szerint használhatók http://www.itjobswatch.co.uk . Ezen készségek közül egy vagy több felhasználható a Big Data és a Hadoop készségek összehangolásához is. Így megkönnyítve a zökkenőmentes átállást.

A jó tesztelő mérnök éles elemző készségekkel, erős technikai készségekkel, remek hozzáállással, részletgazdagsággal és tanulási hajlandósággal rendelkezik. Pontosan ezekre a tulajdonságokra van szükség ahhoz, hogy bárki átváltson a Hadoopra. Megcáfolhatatlan, hogy a tesztelés átalakulóban van, de ennek még nem lesz vége. De a változó idők mellett körültekintő a magas hullám - Hadoop - vitorlázása, figyelembe véve minden jellemzőjét és rugalmasságát.

Még mindig nem vagy meggyőződve arról, hogy megtanulhatod Hadoopot? Ne bízz senkiben. Ítélje meg magát. Kattintson alább, hogy megnézze az Edureka által vezetett Big Data és Hadoop osztály minta felvételét.

Van egy kérdésünk? Említse meg őket a megjegyzések részben, és mi kapcsolatba lépünk Önnel.

Kapcsolódó hozzászólások:

A Big Data képzés 7 módon változtathatja meg szervezetét