CDO

Algorytmy sztucznej inteligencji a prawo konkurencji w Unii Europejskiej

Coraz więcej urzędów ochrony konkurencji dostrzega problemy, jakie może stwarzać stosowanie rozwiązań Artificial Intelligence (AI) lub automatycznych algorytmów dla prawa konkurencji. Szczególnie „ryzykowne” jest oprogramowanie, w którym może dojść do wymiany lub uzgodnienia informacji o cenach lub kluczowych danych handlowych. Firmy tworzące lub dostarczające tego typu rozwiązania powinny brać te zastrzeżenia pod uwagę, gdyż coraz częściej kary za uczestnictwo w zmowie są nakładane także na firmy IT w nią „wciągnięte”.

Algorytmy sztucznej inteligencji a prawo konkurencji w Unii Europejskiej

W 2021 roku kilka ważnych urzędów ochrony konkurencji na świecie (m.in. w Japonii, Francji i Niemczech) rozpoczęło szczegółowe analizy dotyczące tego, czy użycie algorytmów IT (w tym w ramach systemów AI) może prowadzić do naruszenia prawa konkurencji. Coraz częściej urzędy te wydają raporty, z których można wywnioskować, jakie obszary są szczególnie ryzykowne dla firm informatycznych.

Dla wszystkich, którzy nie mają do czynienia z prawem konkurencji na co dzień – Komisja Europejska i krajowe odpowiedniki Urzędu Ochrony Konkurencji i Konsumentów (UOKiK) – za zmowę cenową karzą nie tylko firmy bezpośrednio zainteresowane zmową (konkurentów), ale także firmy, które im w tym pomagały i wniosły istotny wkład w powstanie i funkcjonowanie zmowy.

Jaki problem może mieć prawo konkurencji z algorytmami i AI?

W uproszczeniu zatem prawo konkurencji ma problem z algorytmami (w tym z AI), jeśli:

a) służą do wymiany danych pomiędzy konkurentami informacji o cenach lub innych kluczowych informacji handlowych – względnie służą do tego, aby konkurencji koordynowali swoje działania rynkowe (np. uzgadniali ceny).

Przykład nr 1

Wszystkie stacje paliw w średnim mieście korzystają z tej samej firmy IT, która dostarcza im oprogramowanie do dynamicznego ustalania cen na dany dzień. Jednocześnie właściciele tych stacji umówili się, że podwyższenie ceny LPG przez stację A, będzie powodowało podwyższenie cen LPG przez inne stacje. Dla ukrycia zmowy umówili się, że w jednym tygodniu stacja B będzie miała cenę niższa o 5 groszy od pozostałych, a w kolejnym tygodniu stacja C będzie miała o tyle niższa cenę i tak schemat będzie się powtarzał. Taki schemat zostaje „zaszyty” w algorytm programu, z którego korzystają wszystkie stacje.

Przykład nr 2

Izba zrzeszająca lokalnych dystrybutorów stali (posiadająca kilku członków) udostępnia oprogramowanie, gdzie udostępnia – oprócz danych historycznych i aktualnych – także dane dotyczące zamówień (przyszłe dostawy), aktualnych średnich marż oraz cen, po jakich zostały dokonane te zamówienia. Intencja (jakkolwiek ukryta) jest jasna – konkurenci, którzy w ten sposób widzą nawzajem, ile i po jakich cenach zmawiają wszyscy pozostali uczestnicy lokalnego rynku, mogą się „przygotować” z cenami. Jakkolwiek wprost tych cen nie uzgadniają, to jednak przejrzystość rynku jest tak duża, że z łatwością mogą przewidzieć jakie będą najprawdopodobniej ceny w najbliższym czasie.

Innym przypadkiem naruszającym prawo konkurencji przez rozwiązania bazujące na algorytmach sztucznej inteligencji jest przypadek, gdy:

b) służą nadużyciu pozycji dominującej (np. poprzez bezprawne promowanie swoich ofert w rankingach).

Przykład nr 3

Platforma zbierająca informacje o cenach i ofercie sprzedaży butów w Internecie (praktycznie jedyna w skali kraju) jednocześnie sama prowadzi sprzedaż obuwia letniego ze skóry. Zaczyna zatem pomijać w rankingach dotyczących klapek i sandałów oferty bezpośredniego konkurenta (firmy X) – prezentując jedynie klapki i sandały innych sprzedawców. Jednocześnie celowo wprowadza – w komentarzach do swojej oferty – te zarzucające produktom sprzedawanym przez firmę X złą jakość i słaby serwis posprzedażowy.

Czy firma IT może dostać kare za „cudzą” zmowę?

Dla wszystkich, którzy nie mają do czynienia z prawem konkurencji na co dzień – Komisja Europejska i krajowe odpowiedniki Urzędu Ochrony Konkurencji i Konsumentów (UOKiK) – za zmowę cenową karzą nie tylko firmy bezpośrednio zainteresowane zmową (konkurentów), ale także firmy, które im w tym pomagały i wniosły istotny wkład w powstanie i funkcjonowanie zmowy.

Przykład nr 4

Firma Dyball dostarczała w Wielkiej Brytanii oprogramowanie do dwóch konkurujących ze sobą dostawców gazu i energii elektrycznej (Economy i EGEL). Ostatecznie weszła z nimi w zmowę. Economy oraz EGEL umówili się, że nie będą aktywnie podbierać sobie nawzajem klientów, lecz aktywnie pozyskiwać jedynie klientów innych firm. Informacja o tym, czy dana firma współpracuje już z Economy lub EGEL – i czy z tego powodu jest już „zablokowana” – Economy oraz EGEL pozyskiwały dzięki oprogramowaniu Dyball. Wszyscy uczestnicy tej zmowy (w tym firma IT) zostali ukarani finansowo w 2019 roku przez U.K. Gas and Electricity Markets Authority.

Jakie obszary wykorzystania algorytmów AI są najbardziej ryzykowne?

Największe ryzyko, jeśli chodzi o naruszenie przez firmę IT prawa konkurencji może wystąpić w obszarach:

a) algorytmów wyszukujących i porównujących ceny oraz algorytmów ustalających ceny (np.: porównywarki),

b) algorytmów odpowiadających za tworzenie rankingów i prezentację wyników,

c) algorytmów odpowiadających za personalizację oferty (ceny),

d) oprogramowania, które gromadzi i udostępnia ważne informacje handlowe innym firmom z danej branży (szczególnie, jeśli z udostępnianych informacji można wywnioskować, jakie będą przyszłe działania rynkowe konkurentów).

Przykład nr 5

Ciekawa jest sprawa Trod Ltd. i GB eye Ltd. prowadzona przez brytyjski organ ochrony konkurencji w 2016 roku. Firmy prowadziły sprzedaż plakatów i ram za pośrednictwem brytyjskiej strony Amazon. Ustaliły jednocześnie, że nie będą konkurować ze sobą w zakresie cen. Do wdrożenia i utrzymywania kartelu wykorzystano oprogramowanie mające za zadanie inteligentne obserwowanie i dostosowywanie cen.

Przykład nr 6

Posługiwanie się algorytmami w zmowach wertykalnych również jest możliwe, co udowodniły cztery czołowe firmy Asus, Denon & Marantz, Philips i Pioneer w pierwszych tego typu sprawach prowadzonych przez Komisję Europejską, zakończonych w 2018 roku (COMP/40465 Asus, COMP/40469 Denon & Marantz, COMP/40181 Philips, COMP/40182 Pioneer). Producenci wyznaczali dystrybutorom ceny stałe lub minimalne, a następnie kontrolowali ich zachowania cenowe za pomocą oprogramowania. W przypadku stwierdzenia odchyleń od narzuconej ceny, dystrybutorzy spotykali się z dotkliwymi sankcjami, takimi jak wstrzymanie dostaw.

Przykład nr 7

Koreańska Fair Trade Commission ukarała w 2020 roku firmę NAVER, która prowadzi platformę wyszukującą i porównującą oferty ponad 70% sklepów internetowych obecnych w Korei Południowej. Koreańskie władze uznały, iż NAVER tak dostosował kryteria rankingów, aby produkty sprzedawane przez NAVER miały wyższą pozycję w rankingu. Takie działanie koreański regulator uznał zaś za naruszenie pozycji dominującej.

Co warto zrobić w „ryzykownej” sytuacji?

Nie wiemy do końca, w jakim kierunku jeszcze rozwinie się sytuacja i czy kolejne obszary usług IT nie przyciągną uwagi organów ochrony konkurencji, ale myślę, że kilka rad można już sformułować. Jeśli zajmujesz się przygotowaniem oprogramowania IT lub świadczysz dostęp do takiego oprogramowania jako usługę (SaaS):

  • uważaj, jeśli Twoje oprogramowanie jest używane przez dużo firm konkurujących na danym rynku,
  • przy czym oprogramowanie takie zbiera informacje na temat ważnych danych handlowych (ceny, wolumen przyszłych zamówień, wysokość stale stosowanych rabatów itp.),
  • przenalizuj, jak dużo informacji o swoich konkurentach może uzyskać Twój klient,
  • czy czasem zastosowany algorytm jest na tyle oczywisty dla klienta, że zdaje sobie sprawę, jak ten algorytm zadziała w przypadku konkurencji.

Jeśli tworzysz i prezentujesz rankingi:

  • uważaj na sytuacje, gdzie przyjmujesz pieniądze za lepsze miejsce w rankingach,
  • sprawdź, czy czasem używany przez Ciebie algorytm – w sposób niezamierzony – działa w taki sposób, że dyskryminuje określone produkty/usługi,
  • szczególnie ważne, jeśli – oprócz rankingu – sam także prowadzisz sprzedaż towarów/usług objętych rankingiem.

Przemysław Wierzbicki, adwokat, wspólnik Kancelarii KKLW Legal Kurzyński Wierzbicki Sp. k., co-founder Nowy Wymiar Prawa.

Szczegółowe dane na temat cytowanych tutaj decyzji można znaleźć w raporcie Japan Fair Trade Commission „Algorithms/AI and Competition Policy, March 2021”.

W poprzednim numerze ITwiz 9/2021 opublikowaliśmy tekst na temat tzw. białej księgi AI opublikowanej przez Komisję Europejską. Zgodnie z projektem przewidziano wprowadzenie definicji legalnej „systemu sztucznej inteligencji”. Projekt zakłada stosowanie różnych zasad w zależności od oceny ryzyka. Technologie sztucznej inteligencji mają zostać podzielone na klasy ryzyka podobnie, jak ma to miejsce w przypadku wyrobów medycznych. Stopień regulacji będzie uzależniony do ryzyka, jakie technologia za sobą niesie. Zakładany podział będzie przewidywał technologie AI zabronione, technologie wysokiego i niskiego ryzyka.
Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *