Cât de accesibilă devine programarea

un programator in fata a 3 monitoare

Dezvoltarea de aplicații și instrumente fără programatori care utilizează AI: oportunitate sau risc sistemic?

O nouă paradigmă

Acum câteva luni citeam cum un specialist în protecția datelor a dezvoltat un script care verifică site-uri să vadă dacă au notificarea de confidențialitate și politica de cookie-uri prezente. Și în timp ce admiram efortul său, m-am întrebat dacă nu aș putea face și eu așa ceva, cu efort minim. Așa că m-am logat pe Manus.AI, mi-am făcut rapid un cont, am făcut un prompt cu ChatGPT special pentru Manus.AI, am băgat promptul în Manus și jumătate de oră mai târziu, aveam prototipul unui site în care puteai băga o listă de site-uri să le verifici dacă au cele două documente. A durat vreo două zile să „stabilizez” site-ul plin de bug-uri, dar într-un final, după 3 zile de efort minimal (aveam și de lucru) aveam un MVP (Minimal Viable Product) cu care puteam să colectez „lead-uri” de site-uri neconforme.

Vreau să vă zic că l-am făcut „din joacă”, fără să scriu o singură linie de cod. Nu l-am publicat niciodată fiindcă nu cred în „șantajarea” celor care nu au aceste documente (conformitatea cu GDPR nu înseamnă să ai tone de documente, ține de guvernanța corporativă și de atitudine) dar m-am pus să „dezvolt” unelte mult mai complicate: un portal de e-commerce, un site de prezentare, un portal pentru un proiect la Romanian

Business Leaders. Totul doar prin discuții cu un sistem AI agentic căruia i-am dat un scop, pe care l-am informat unde a greșit și care și-a corectat singur greșelile.

În peisajul tehnologiei în evoluție rapidă, inteligența artificială remodelează modul în care creăm software. Integrarea AI în platformele no-code și low-code a democratizat dezvoltarea aplicațiilor, permițând persoanelor fără abilități formale de programare să construiască instrumente și aplicații sofisticate. Aceste platforme folosesc procesarea limbajului natural, algoritmii de învățare automată și generarea automată de cod pentru a traduce solicitările utilizatorilor în software funcțional. De exemplu, instrumente precum cele care combină interfețe asemănătoare ChatGPT cu constructori vizuali permit utilizatorilor să descrie funcționalitatea unei aplicații într-o engleză simplă, iar AI se ocupă de restul – de la designul interfeței de utilizare până la logica backend.

Această schimbare reprezintă o schimbare profundă în paradigma dezvoltării software. În mod tradițional, construirea aplicațiilor necesita echipe de programatori calificați, cunoștințe extinse de codare și luni de iterație. Acum, instrumentele bazate pe inteligență artificială promit să „comprime” acest proces în zile sau chiar ore. Potrivit unor analize recente, până la sfârșitul lui 2025 se anticipă că aproape 70% dintre echipele software vor încorpora dezvoltarea bazată pe inteligență artificială.

Cu toate acestea, vin multe întrebări despre fiabilitate, securitate și impact social. Vorbim oare de o oportunitate de inovare pe scară largă sau de un risc sistemic care ar putea duce la vulnerabilități în sistemele critice, dileme etice și perturbări economice? Dezbaterea se bazează pe echilibrarea potențialului transformator al dezvoltării bazate pe inteligență artificială cu pericolele automatizării necontrolate.

Conceptul de dezvoltare fără cod nu este complet nou – platforme precum Bubble și Adalo există de ani de zile – dar AI le bagă combustibil în injectoare. Prin integrarea AI, aceste instrumente pot interpreta acum cerințe complexe, pot sugera optimizări și chiar pot depana problemele în mod autonom. Un raport din 2025 evidențiază modul în care platformele AI fără cod permit non-programatorilor să implementeze rapid aplicații avansate. Cu toate acestea, pe măsură ce adoptarea crește (71% dintre organizații folosesc AI în procesele de dezvoltare) trebuie să verificăm dacă această ușurință de a dezvolta nu duce cumva la amenințări mai profunde.

Creșterea AI în dezvoltarea de software

Anul 2025 marchează un moment crucial pentru AI în ingineria software. Progresele în LLM și sistemele AI agentice au permis crearea de „IDE-uri agentice” în care utilizatorii solicită sistemului să genereze, să testeze și să implementeze cod fără intervenție manuală. De exemplu, platformele permit utilizatorilor să introducă o descriere precum „construiește un planificator de evenimente”, iar inteligența artificială construiește aplicația, completată cu baza de date și autentificarea utilizatorilor.

Această creștere este alimentată de mai mulți factori. În primul rând, maturizarea modelelor AI precum cele de la OpenAI și Anthropic, care acum pot gestiona raționamentul în mai mulți pași pentru generarea de cod. În al doilea rând, proliferarea ecosistemelor low-code/no-code, proiectate să crească semnificativ pe măsură ce integrează AI pentru sarcini precum analiza datelor în timp real. În al treilea rând, presiunile economice: companiile caută un timp mai rapid de lansare pe piață a produselor și a serviciilor lor.

Statisticile subliniază acest impuls. Raportul AI Index 2025 oferă o imagine cuprinzătoare, notând creșteri exponențiale ale adopției AI în toate industriile. În special în dezvoltarea de software, instrumentele AI revoluționează codificarea tradițională prin automatizarea sarcinilor de rutină, permițând dezvoltatorilor – și acum non-dezvoltatorilor – să se concentreze pe inovație la un alt nivel. Instrumente precum Cursor sau Claude Code permit chiar și începătorilor să construiască sisteme complexe, cum ar fi un marketplace de cursuri cu tot cu panoul de administrare, în câteva zile versus câteva luni.

Platformele low-code, care permit o anumită codificare pentru personalizare, și platformele no-code, care se bazează în întregime pe interfețe vizuale, diferă în flexibilitate. Low-code se potrivește proiectelor complexe cu scalabilitate, în timp ce no-code excelează în sarcini mai simple. AI le îmbunătățește pe ambele prin automatizarea scrierii de cod sau prin sugerarea fluxurilor de lucru.

Exemplele din lumea reală abundă. Un utilizator non-tehnic a construit o aplicație folosind AI, descriind-o ca fiind „cea mai fericită zi”, dar avertizând împotriva dependenței excesive din cauza complexităților ascunse. Un altul a creat aplicații mobile prin intermediul roboților FlutterFlow cod, subliniind că barierele sunt acum mai mult despre mentalitate decât despre tehnologie. Această democratizare este evidentă în educație, unde elevi ce până acum nu au programat nicio linie de cod lansează aplicații în weekend.

Cu toate acestea, provocările persistă. Cercetătorii MIT au identificat în 2025 obstacole în calea ingineriei software AI complet autonome, inclusiv înțelegerea contextului și gestionarea erorilor. În ciuda acestora, traiectoria este clară: AI face ca dezvoltarea să fie mult simplificată, dar cu ce preț?

Oportunități: Stimularea inovării și a accesibilității

Principala oportunitate constă în democratizarea creării de tehnologie. Dezvoltarea aplicațiilor devine accesibilă diverselor grupuri – artiști, educatori, proprietari de afaceri mici și experți în domeniu. O prietenă de-a mea, Cristina, freelancer de marketing, și-a dezvoltat tool-uri care o ajută în dezvoltarea și rularea de proiecte la diverșii săi clienți.

Viteza și eficiența sunt beneficii cheie. Ciclurile tradiționale de dezvoltare se pot întinde pe luni de zile; AI le „comprimă” dramatic. Platforme precum cele care integrează AI cu constructori vizuali folosesc interfețe de utilizare drag-and-drop, baze de date încorporate și agenți AI pentru fluxuri de lucru, permițând dezvoltarea și testarea de aplicații la scară largă fără a scrie cod. Această rapiditate accelerează prototiparea și iterarea, cruciale în orice business. Companiile raportează costuri mai mici, deoarece abordarea no-code/low-code reduce dependența de dezvoltatori.

Vorbim apoi de creșterea economică. Prin împuternicirea „dezvoltatorilor cetățeni”, companiile cultivă o cultură de inovație. Platformele low-code/no-code permit personalului non-IT să construiască soluții personalizate, îmbunătățind productivitatea și colaborarea. În 2025, integrarea AI eliberează angajații de sarcini repetitive, redirecționând atenția către munca strategică.

Oportunitățile abundă cam în toate sectoarele. În educație, profesorii creează instrumente interactive fără suport tehnic. În domeniul sănătății, clinicienii construiesc aplicații de gestionare a pacienților. Startup-urile folosesc acest lucru pentru MVP-uri, validând ideile ieftin.

Pe scurt, oportunitățile sunt vaste: incluziune, viteză, economii de costuri și inovație. Acest lucru redefinește economiile, făcând crearea tehnologică omniprezentă.

Riscuri și provocări: de la vulnerabilități la amenințări sistemice

În ciuda atracției dezvoltării no-code și low-code bazate pe inteligență artificială, riscurile semnificative sunt mari în acest peisaj transformator. Un raport din 2025 al Veracode evidențiază faptul că codul generat de AI introduce defecte de securitate riscante în 45% din teste, subliniind nevoia urgentă de precauție.

Vulnerabilități de securitate: o bombă cu ceas

Cel mai mare risc este securitatea. Modelele AI, antrenate pe depozite vaste de cod public, reproduc adesea modele defecte, încorporând vulnerabilități în rezultatul generat. Problemele comune includ SQL injection, cross-site scripting (XSS) și halucinații în legătură cu dependințele – AI uneori inventează biblioteci inexistente care ar putea duce la atacuri asupra lanțului de aprovizionare. Non-programatorii, lipsiți de expertiza necesară pentru a le detecta, pot implementa aplicații pline de vulnerabilități sau puncte de acces neautorizate, amplificând riscurile în domenii sensibile, cum ar fi finanțele sau sănătatea.

Studii recente amplifică această îngrijorare. O analiză Cloud Security Alliance din 2025 a constatat că 62% din codul generat de AI conține defecte de proiectare sau vulnerabilități cunoscute, chiar și atunci când dezvoltatorii creează prompt-uri sigure. De exemplu, Java apare ca cel mai riscant limbaj pentru generarea de cod AI, cu rate de eșec care depășesc 70%, în timp ce Python, C# și JavaScript se descurcă doar puțin mai bine. Pe platforme precum Reddit, experții în securitate cibernetică subliniază că niciun cod – uman sau AI – nu ar trebui să fie considerat sigur fără o modelare adecvată a amenințărilor. Mai mult, tendința AI de a produce cod funcțional, dar nesigur, a dus la avertismente că aproape jumătate din dezvoltarea asistată de AI introduce riscuri majore de securitate.

În sectoarele critice, aceste vulnerabilități ar putea avea consecințe catastrofale. Aplicațiile defectuoase generate de inteligență artificială în domeniul sănătății ar putea expune datele pacienților, în timp ce în finanțe, ar putea permite tranzacții frauduloase. Cele mai bune practici, cum ar fi scanările automate ale vulnerabilităților și supravegherea umană, sunt esențiale, dar un raport din 2025 notează că mulți utilizatori le ignoră, ceea ce duce la riscuri negestionate.

Controlul calității și probleme de fiabilitate

Controlul calității este un alt călcâi al lui Ahile. În timp ce AI excelează la sarcini simple, repetitive, eșuează la cerințe nuanțate sau în contexte dificile, rezultând cod cu erori, ineficient sau nescalabil. Studiul MIT din 2025 privind ingineria software autonomă AI identifică obstacole, cum ar fi înțelegerea incompletă a contextului și raționamentul în mai mulți pași predispus la erori. Utilizatorii fără experiență de programare pot implementa fără să vrea aplicații prost scrise, ceea ce duce la eșecuri, cum ar fi aplicațiile care se blochează sau produc ieșiri incorecte.

Există multe motive pentru care instrumentele low-code/no-code eșuează, inclusiv simplificarea excesivă, LLM-urile nesigure și erori în scalare. De exemplu, AI ar putea genera cod care funcționează izolat, dar se integrează slab cu sistemele existente, creând probleme de întreținere.

Preocupări etice: părtinire, confidențialitate și proprietate intelectuală

Dilemele etice agravează aceste riscuri tehnice. Modelele AI moștenesc prejudecăți din datele de antrenament distorsionate, perpetuând discriminarea în aplicațiile generate – cum ar fi instrumentele de angajare părtinitoare sau algoritmi discriminatori în aplicațiile mobile.
Problemele de proprietate intelectuală sunt răspândite; AI poate utiliza din greșeală cod protejat prin drepturi de autor, ridicând răspunderi legale. Riscurile etice în dezvoltarea aplicațiilor AI includ deficite de transparență și potențiale abuzuri, disecate în toate industriile.

Eliminarea locurilor de muncă și inegalitatea economică

Șomajul cauzat de AI reprezintă un risc major. Sondajele indică faptul că 30% dintre dezvoltatori se tem de înlocuirea AI, pozițiile entry-level dispărând mai repede decât se anticipase. Forumul Economic Mondial prezice 92 de milioane de locuri de muncă afectate până în 2030, deși ar putea apărea noi roluri. În ingineria software, cererea de specialiști AI crește, dar programatorii tradiționali se confruntă cu eroziunea, exacerbând inegalitatea.

Riscuri sistemice: omogenizare și dependență

Din punct de vedere sistemic, adoptarea pe scară largă riscă omogenizarea software-ului, făcând sistemele vulnerabile la exploit-uri comune. EU AI Act abordează riscurile sistemice ale IA de uz general, în timp ce Deloitte avertizează asupra riscurilor AI generativ, cum ar fi prăbușirea modelului. În open source, contribuțiile AI ridică temeri de cod malițios sau vulnerabilități neverificate.
Barierele în calea adoptării sigure includ preocupări etice, provocări de integrare a datelor și dependența excesivă care duce la accidente.

Strategii de guvernanță și atenuare

Pentru a valorifica pe deplin oportunitățile oferite de dezvoltarea no-code și low-code bazată pe inteligență artificială, abordând în același timp riscurile prezentate anterior, este imperativ un cadru de guvernanță cuprinzător. Proliferarea rapidă a inteligenței artificiale în crearea de software a determinat guvernele, organizațiile și liderii din industrie să dezvolte abordări structurate pentru atenuarea riscurilor. Aceste strategii includ conformitatea cu reglementările, garanțiile tehnice, inițiativele educaționale și eforturile de colaborare. Guvernanța eficientă nu numai că minimizează vulnerabilitățile, dar promovează și încrederea, asigurându-se că AI ajută utilizatorii fără a compromite securitatea sau etica.

Cadre de reglementare și conformitate: construirea de garanții juridic

Implementarea conformității constituie piatra de temelie a guvernanței IA, oferind standarde aplicabile pentru a atenua riscurile sistemice. În 2025, reglementările cheie s-au maturizat, oferind linii directoare clare pentru AI în dezvoltarea aplicațiilor. EU AI Act, aflat în vigoare, clasifică sistemele AI în funcție de nivelul de risc, impunând evaluări riguroase pentru aplicațiile cu risc ridicat, cum ar fi cele din domeniul sănătății sau finanțelor. Pentru platformele no-code/low-code, acest lucru înseamnă că dezvoltatorii trebuie să efectueze evaluări ale conformității, să asigure transparența în procesul decizional AI și să păstreze documentația privind utilizarea datelor.

În Statele Unite ale Americii, state precum Colorado și California au introdus legi precum SB-205 și reglementări privind sistemele automate de decizie, care necesită audituri de părtinire și evaluări de impact pentru instrumentele AI utilizate în aplicațiile de angajare sau creditare. Dezvoltatorii care utilizează platforme no-code ar trebui să integreze din timp verificările de conformitate, cum ar fi scanarea automată a părtinirii în timpul prototipării aplicațiilor.

La nivel global, cadre precum Strategia AI 2025 a Japoniei și Normele etice pentru IA de nouă generație ale Chinei subliniază proporționalitatea și designul centrat pe om. Asociația Internațională a Profesioniștilor în Confidențialitate (IAPP) urmărește aceste evoluții, menționând că legile privind confidențialitatea, cum ar fi GDPR, acoperă în mod explicit prelucrările de date cu ajutorul AI. Pentru utilizatorii de tehnologii de dezvoltare no-code, adoptarea instrumentelor cu șabloane de conformitate încorporate, cum ar fi cele din Microsoft Power Apps, poate simplifica conformitatea. Organizațiile ar trebui să înființeze comitete de etică AI conduse de ofițeri de guvernanță AI pentru a revizui aplicațiile în raport cu aceste reglementări, reducând expunerea legală și promovând responsabilitatea.

Prin alinierea la aceste cadre, non-programatorii pot atenua riscurile etice, cum ar fi prejudecățile, asigurându-se în același timp că aplicațiile îndeplinesc standardele internaționale.

Inițiative educaționale și organizaționale: capacitarea utilizatorilor și a echipelor

Educația reduce decalajul de cunoștințe pentru non-programatori. Programele de instruire privind elementele de bază ale securității, inteligența artificială etică și crearea de prompturi sunt vitale. Organizațiile ar trebui să implementeze politici și proceduri inclusiv menținerea documentației pentru a asigura mentenanța.
Abordarea Enterprise Risk Management susține evaluarea riscurilor AI prin educație continuă, minimizând eroarea umană. Prin promovarea unei „culturi conștiente de securitate”, conform liniilor directoare comune, organizațiile pot atenua phishing-ul și manipularea greșită a datelor.

Direcții viitoare: Către dezvoltarea durabilă a IA

Pe măsură ce ne apropiem de 2026, traiectoria dezvoltării no-code și low-code bazate pe inteligență artificială este pregătită pentru o evoluție profundă, ghidată de o confluență de inițiative internaționale de guvernanță, inovații tehnologice și un accent sporit pe sustenabilitate. Provocările sistemice, cum ar fi prăbușirea modelului – în care sistemele AI se degradează din cauza antrenamentului recursiv pe date sintetice – vor fi atenuate prin cadre internaționale îmbunătățite care pun accentul pe diversitatea datelor și sursa etică. Pe baza acestui lucru, înființarea recentă de către Organizația Națiunilor Unite a unor noi mecanisme în august 2025, inclusiv un organism consultativ în domeniul IA și un pact digital global, își propune să promoveze o guvernanță incluzivă a IA care să se alinieze cu obiectivele de dezvoltare durabilă. Aceste eforturi subliniază o schimbare către „AI durabilă”, în care impactul asupra mediului, cum ar fi consumul de energie al LLM-urilor, este minimizat prin practici de calcul ecologic și algoritmi optimizați, reducând potențial amprenta ecologică a AI cu până la 30% până în 2030.

În domeniul platformelor no-code și low-code, tendințele viitoare indică o integrare mai profundă a AI pentru hiperautomatizare și arhitecturi dinamice. Se estimează faptul că 50% din noile aplicații vor folosi aceste tehnologii, evoluând în ecosisteme augmentate de inteligență artificială, unde instrumentele generative nu numai că automatizează generarea de cod, ci și prezic și auto-corectează vulnerabilitățile în timp real. Inovații precum rezultatele deterministe ale inteligenței artificiale ar putea elimina nondeterminismul prin proceduri de operare standardizate (SOP) și mecanisme de auto-corectare, asigurând performanțe consistente și fiabile ale aplicațiilor chiar și pentru utilizatorii ce nu sunt experți. În mod similar, perspectiva lui Guillermo Rauch asupra agenților AI care depășesc codificatorii umani în securitate evidențiază potențialul sistemelor multi-agent care colaborează pentru a produce cod fortificat, reducând riscurile de breșă prin încorporarea modelării proactive a amenințărilor. Un raport din 2025 al App Builder susține această ipoteză, menționând că 84% dintre liderii tehnologici cred că AI va îmbunătăți mai degrabă decât înlocui soluțiile low-code, permițând dezvoltatorilor non-tehnici să construiască aplicații scalabile, de nivel enterprise, cu funcții de guvernanță încorporate.

Sustenabilitatea se va intersecta din ce în ce mai mult cu guvernanța etică a IA. Există o nevoie clară de sisteme de IA concepute pentru a promova obiective cum ar fi reducerea sărăciei și acțiunile climatice, abordând în același timp prejudecățile din regiunile cu resurse reduse.

Privind în perspectivă, convergența calculului cuantic cu AI ar putea revoluționa mediile low-code prin simulări ultra-eficiente, deși acest lucru necesită o guvernanță avansată pentru a gestiona riscurile specifice cuanticului, cum ar fi erorile de criptare. Până în 2030, Gartner prezice că 80% dintre utilizatorii low-code vor fi profesioniști non-IT, conduși de îmbunătățirile AI care acordă prioritate explicabilității și colaborării om-AI. Pentru a realiza această viziune, colaborările cu mai multe părți interesate – care cuprind guverne, întreprinderi și societatea civilă – trebuie să acorde prioritate politicilor incluzive.

Calea către dezvoltarea durabilă a inteligenței artificiale în domeniile no-code și low-code depinde de adaptarea proactivă. Prin integrarea principiilor responsabilității, transparenței și gestionării mediului în tehnologiile emergente, putem transforma riscurile potențiale în catalizatori pentru un ecosistem digital mai echitabil și mai inovator.
 

Articol publicat în decembrie 2025.

        

Informațiile regăsite pe acest blog nu sunt o recomandare de acțiune, sfaturi de investiții, informații juridice sau fiscale și nu reprezintă o ofertă de vânzare/cumpărare a oricărui instrument financiar. Ne-am asigurat că acest articol nu conține informații false sau înșelătoare în momentul publicării, dar nu garantăm exactitatea sau gradul de adevăr al acestuia. ING nu își asumă nicio răspundere pentru orice pierdere directă, indirectă sau consecință survenită în urma aplicării informațiilor din acest articol, cu excepția cazului în care se specifică altfel. Orice opinii, puncte de vedere sau estimări aparțin exclusiv autorilor și pot fi modificate fără notificare.
Distribuirea acestei publicații poate fi restricționată prin lege sau reglementări, iar persoanele care intră în posesia acesteia au obligația de a se informa și a respecta restricțiile impuse.
Articolele publicate pe acest blog se supun protecției drepturilor de autor, astfel încât conținutul nu poate fi reprodus, distribuit sau publicat de nicio persoană în niciun scop fără acordul prealabil expres al ING și menționarea sursei. Toate drepturile sunt rezervate.
 

Tudor Galos

Tudor este consultant în protecția datelor având o experiență de peste 20 de ani în business. De șase ani conduce cabinetul de consultanță Tudor Galoș Consulting, lucrând cu o echipă care adresează peste 200 de clienți din Europa, Statele Unite, Marea Britanie și Orientul Mijlociu. Are o certificare europeană de Data Protection Officer obținută la European Center for Privacy and Cybersecurity din cadrul Maastricht University – Faculty of Law, este autorul unui curs DPO acreditat la Ministerul Muncii și Solidarității Sociale și a două cursuri online de GDPR cu peste 15.000 de participanți. Este speaker la evenimente internaționale unde prezintă soluții ce adresează cele mai noi provocări de privacy din domeniile Big Data, Inteligență Artificială, Cloud Computing, Blockchain.