organizatorzy sesji - Politechnika Częstochowska
Transcription
organizatorzy sesji - Politechnika Częstochowska
ORGANIZATORZY SESJI WYDZIAŁ INŻYNIERII PROCESOWEJ, MATERIAŁOWEJ i FIZYKI STOSOWANEJ STUDENCKIE KOŁO NAUKOWE „INFOMET” XXVIII MIĘDZYNARODOWA STUDENCKA SESJA NAUKOWA POD PATRONATEM PREZYDENTA MIASTA CZĘSTOCHOWY TADEUSZA WRONY 20 maja 2004 r. STUDENCKIE KOŁO NAUKOWE INFOMET Koło Naukowe „Infomet” rozpoczęło swoją działalność w roku 2002, a oficjalnie zostało zarejestrowane rok później. Uruchomienie Koła Naukowego przy Katedrze Ekstrakcji i Recyrkulacji Metali było odpowiedzią na zainteresowanie ze strony studentów uczestnictwem w zorganizowanej pracy naukowej, w pracach czynnych Koła bierze udział około dwudziestu studentów. Siedzibą Koła jest Wydział Inżynierii Procesowej, Materiałowej i Fizyki Stosowanej Politechniki Częstochowskiej. Władzą najwyższą w Kole jest Zarząd na czele którego stoi przewodniczący. Koło opiera swoją działalność na pracy społecznej ogółu studentów. Za podstawowe cele Koło Naukowe INFOMET obiera: • rozwijanie zdobytej podczas studiów wiedzy, • kształcenie umiejętności pracy samodzielnej i zespołowej, • projektowanie i realizację systemów przetwarzania informacji, • numeryczne modelowanie procesów wysokotemperaturowych, • przyswajanie metod wspomagania komputerowego przy projektowaniu i realizacji eksperymentu, • pozyskiwanie literatury w celu realizowania zadań, • nawiązywanie współpracy z innymi Kołami Naukowymi działającymi na innych uczelniach, • udział w wystawach i targach branżowych, • uczestniczenie w konkursach i sesjach studenckich organizowanych w kraju, • organizację sesji studenckich. Opiekunowie Koła: Naukowy - dr hab. inż. Jan Jowsa, Prof. P.Cz. Organizacyjny - dr inż. Stanisław Garncarek Bezpośredni - mgr inż. Tomasz Merder, mgr inż. Marek Warzecha 2 INFORMACJE O SESJI STUDENCKIEJ Organizowana w tym roku na Wydziale Inżynierii Procesowej, Materiałowej i Fizyki Stosowanej Studencka Sesja Naukowa, jest XXVIII sesją. Do roku 1983 istniała, dość sprawnie działająca, podwójna struktura organizacyjna studenckiego ruchu naukowego. W Katedrach pracowały Koła Naukowe oraz powołani byli Wydziałowi i Uczelniani Opiekunowie studenckiego ruchu naukowego. Organizowane na Wydziale Metalurgicznym Sejmiki Studenckich Kół Naukowych, stanowiły roczne podsumowanie pracy Kół. Do 1983 roku Sejmiki organizowały najpierw ZSP, a później SZSP. Sejmik zorganizowany w 1983 roku był piętnastym. W roku 1984 Sejmik zorganizowany został bez udziału organizacji studenckich. Podsumowując do roku 1984 zorganizowano 16 Sejmików, w których uczestniczyło około 300 studentów. Po roku 1984 nastąpiła długa przerwa w organizacji Sejmików, która trwała do roku 1992. W 1992 r. w skład Komitetu Organizacyjnego Obchodów Dnia Hutnika powołany został Przewodniczący Studenckich Sesji Naukowych, a organizację Sesji przejęła Katedra Pieców Przemysłowych. W latach 19992000 Studencką Sesję Naukową organizowała Katedra Przeróbki Plastycznej Materiałów, od 2001-2002 ponownie Katedra Pieców Przemysłowych. Organizację ubiegłorocznej i tegorocznej Sesji przejęło Studenckie Koło Naukowe „INFOMET” działające przy katedrze Ekstrakcji i Recyrkulacji Metali. Ogółem w latach 1992-2003 w Sesjach zorganizowanych na Wydziale Inżynierii Procesowej, Materiałowej i Fizyki Stosowanej uczestniczyło czynnie ponad 685 studentów, którzy wygłosili 195 referatów, w tym: • 2 referaty studenci Uniwersytetu Technicznego w Delft, Holandia, • 3 referaty studenci Narodowej Akademii Metalurgicznej w Dniepropietrowsku, Ukraina, • 3 referaty studenci WSP Częstochowa, • 63 referatów studenci Akademii Górniczo-Hutniczej, • 15 referatów studenci Politechniki Śląskiej w Gliwicach, • 10 referatów studenci Politechniki Śląskiej w Katowicach, • 5 referaty studenci Politechniki Warszawskiej, • 1 referat studentka WSP Kraków, • 90 referatów studenci Politechniki Częstochowskiej. Przewodniczący Sesji Dr hab. inż. Jan Jowsa, Prof. PCz 3 NAGRODY ZA NAJLEPSZE REFERATY UFUNDOWALI PREZYDENT MIASTA CZĘSTOCHOWY TADEUSZ WRONA Redaktorzy nie ponoszą odpowiedzialności za treść zamieszczonych artykułów 4 SPIS REFERATÓW 5 Sekcja A 1. Tomasz Kotlarek, Iwona Ziemba Wpływ geometrii kadzi pośredniej na warunki przepływu ciekłej 10 stali 2. Adam Cwudziński Modelowanie matematyczne wypływania wtrąceń niemetalicznych w kadzi pośredniej 3. Adrian Gonera, Przemysław Woliński Sposoby badań przepływu stali w kadzi pośredniej 4. Anna Herdzik, Ewelina Wrześniak Modelowanie numeryczne wypływania stali z kadzi 5. Michał Tomasik Komputerowe gromadzenie informacji w bazach danych 6. Marcin Niemiec Bezpieczeństwo informacji elektronicznej 7. Michal Martynkiewicz PAN i WPAN – małe sieci teleinformatyczne w zastosowaniach domowych i przemyśle 8. Kasia Dobrowolska GPS - Global Positioning System 9. Łukasz Matusiak System sterowania urządzeniami gospodarstwa domowego 10. Kamil Mielech Inteligentne budynki 11. Andriej Projdak Badania faz azotkowych i węglikowo – azotkowych w niskowęglowych stopach 12. Mykhaylo Ivanov Modelowanie redukcji stężenia tlenków azotu podczas dwustopniowego spalania gazu ziemnego 13. Piero Distefano Aero-thermal performance in internal cooling channels (AR = 30) with dimples 14. Piotr Warzecha Modelowanie numeryczne opływu profilu lotniczego o kształcie opływowym 6 14 18 22 26 28 32 34 36 38 41 41 42 46 Sekcja B 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11 12 13 Weronika Jakubiak Metody odzysku metali z pyłów łukowych pieców elektrycznych Sławomir Mazur Wahadło magnetyczne Justyna Borek Fale gęstości ładunku o symetrii D, S i rozszerzonej S Ewa Sikora Wdrażanie systemu zarządzania jakością zgodnego z wymaganiami norm międzynarodowych Krzysztof Felikowski Wykorzystanie arkusza kalkulacyjnego do analizy ocen pracowników Bartłomiej Motyl Analiza SWOT jako metoda badania otoczenia przedsiębiorstwa Ewa Cyganek Możliwości dostosowania kwalifikacji bezrobotnych do wymagań pracodawców w Częstochowie Anna Balt Remont i zabezpieczenie antykorozyjne zabytkowego koła wodnego Monika Dąbrowska Rekonsrukcja pieca pudlingowego Paweł Kwaśniewski Nowa generacja przewodów jezdnych z miedzi srebrowej przeznaczonych do dużych prędkości jazdy Piotr Komorowski Struktura i właściwości stali WCL (X38CrMoV5-1) po wstępnej obróbce cieplnej w złożu fluidalnym Piechna Andrzej Warstwa wierzchnia wałków rozrządu po procesie eksploatacji Konieczniak Artur Rola sodu w zaworach silnikowych 7 52 55 59 62 63 67 71 75 79 83 84 85 87 8 SEKCJA A 9 WPŁYW GEOMETRII KADZI POŚREDNIEJ NA WARUNKI PRZEPŁYWU CIEKŁEJ STALI Tomasz Kotlarek, Iwona Ziemba Studenckie Koło Naukowe „INFOMET” Wydział Inżynierii Procesowej, Materiałowej i Fizyki Stosowanej Politechnika Częstochowska 1.Wstęp We współczesnych procesach technologicznych wytwarzania stali, ciekła stal, przelewana do kadzi z elektrycznego pieca łukowego lub konwertora, jest poddawana obróbce pozapiecowej, a następnie przewożona do urządzenia COS. Ciągłe odlewanie stali w znacznym stopniu skraca drogę od ciekłej stali do gotowego wyrobu. Metoda odlewania ciągłego umożliwia otrzymanie wlewków ciągłych o określonym profilu i wymiarach, jak również pozwala na zmniejszenie kosztów inwestycyjnych i kosztów robocizny. Stal z kadzi odlewniczej jest odlewana do kadzi pośredniej, ustawionej nad urządzeniem do ciągłego odlewania stali, tak, aby każdy otwór wylewowy ustawiony był dokładnie w osi krystalizatora. Płynny przepływ ciekłej stali w kadzi pośredniej posiada istotny wpływ na proces COS. Kadź pośrednią można wykorzystać do dalszej poprawy jakości odlewanej stali. Główne działania, które można zrealizować w kadzi pośredniej, w celu poprawienia czystości stali to zastosowanie odpowiedniej geometrii wewnętrznej, przelewu i sposobu filtrowania. Buduje się kadzie z odpowiednio umiejscowionymi przegrodami, tamami i przelewami. W ten sposób sprzyja się flotacji wtrąceń niemetalicznych. Główny efekt użycia tam i przegród polega na zmniejszeniu stref martwych wewnątrz kadzi oraz zwiększenie średniego czasu przebywania ciekłego metalu we wnętrzu kadzi. Mają one także wpływ na równomierność rozłożenia pola cieplnego. 1 - kadź; 2 - zasobnik dodatków stopowych; 3 - zasuwa próżniowa; 4 -wziernik; 5 - kadź pośrednia; 6 - krystalizator; 7-linia ciągłego odlewania; 8-wlewnica; 9 - wóz podwlewnicowy Rys 1. Schemat urządzenia do ciągłego odlewania stali z próżniową kadzią pośrednią [1] Wyjaśnieniu problemów związanych z przepływem stali w kadzi pośredniej, pomagają badania na modelach wodnych oraz w ostatnim czasie bardzo dynamicznie rozwijające się modelowanie numeryczne. W celu porównania warunków hydrodynamicznych panujących w kadziach o różnej geometrii wewnętrznej przeprowadzono badania polegające na numerycznej symulacji procesów transportu masy, pędu i energii. 10 2. Opis badanego modelu Przedmiotem badań była sześciowylewowa kadź pośrednia o pojemności 22Mg ciekłej stali. Ze względu na płaszczyznę symetrii obiektu w obliczeniach rozpatrywano jedynie połowę kadzi co ilustruje rysunek 2. Rys. 2. Szkic przestrzenny kadzi, wraz z wymiarami (mm), oraz charakterystycznymi płaszczyznami Technologiczne warunki pracy kadzi pośredniej zestawiono w tabeli 1. Tabela. 1. Warunki pracy badanej kadzi pośredniej Prędkość wpływającej stali do kadzi Temperatura ciekłej stali Intensywność turbulencji Gęstość ciekłej stali Ciepło właściwe Lepkość ciekłej stali Pojemność kadzi Wysokość kąpieli stalowej Średnica otworu wlewowego / wylewowego Liczba otworów wylewowych Wysokość przegrody (kadź z przegrodą) 0,9 m/s 1600°C 5% 7010 kg/m3 821 J/kgK 0,007 kg/ms 22 Mg 740 mm 66 mm / 14 mm 6 370 mm 3. Model matematyczny oraz warunki brzegowe Model matematyczny opisujący zagadnienie przepływu ciekłej stali w kadzi pośredniej COS składa się z równań różniczkowych: zachowania masy i pędu oraz równań opisujących strukturę turbulencji ruchu ciekłej stali w kadzi. Równanie zachowania masy (równanie ciągłości) ma następującą postać ( ) ∂ρ ∂ + ρu j = 0 ∂t ∂x j (1) Równanie zachowania pędu jest określone następująco ( ) ∂u ∂u ∂( ρui ) ∂ ρui u j ∂P ∂ µ eff i + j + =− + ∂t ∂xij ∂xi ∂x j ∂x j ∂xi + ρg i (2) Efektywny współczynnik lepkości wyrażony jest wzorem µ eff = µ + µ t (3) gdzie dynamiczny współczynnik lepkości turbulentnej określa formuła 11 µt = Cµ ρ k2 (4) ε Dla modelowania turbulencji, wykorzystano semiempiryczny, dwurównaniowy model k-ε zaproponowany przez Jones’a i Laundera [2]. Model ten w wielu przypadkach przepływów burzliwych daje wyniki bliskie rezultatom eksperymentu, przy ograniczonych nakładach obliczeniowych. Dla przedstawionej geometrii kadzi, wygenerowano siatkę niestrukturalną z około 270000 tetraedralnymi elementami, lokalnie zagęszczoną przy wlewie i wylewach kadzi. W badanym modelu przyjęto następujące warunki brzegowe: na wlewie założono prędkość wpływu medium (stali) = 0,9 m/s, co odpowiada strumieniowi masy 1,33 Mg/min. Intensywność turbulencji przyjęto równą 5%. Na powierzchni swobodnej zwierciadła cieczy założono warunek w postaci ściany z zerowymi naprężeniami. 4. Metoda badań modelowych Badania na obiektach przemysłowych, z powodu panujących wysokich temperatur, są bardzo trudne i kosztowne. Dlatego zdecydowano się na badanie metodami numerycznymi. Rozpatrywano dwa przypadki kadzi bez przegrody (rys.2a) i kadzi z przegrodą (rys.2b). Zabudowa kadzi, polegała na zabudowie dna kadzi dwiema przegrodami, co oddzieliło rejon wlewowy od rejonu wylewowego. Rys. 3. Schematyczny przekrój kadzi pośredniej bez przegrody a), z przegrodą b) Symulacja przepływu ciekłej stali w przedstawionych badaniach, zrealizowano rozwiązując numeryczne układy równań różniczkowych. Do rozwiązania rozpatrywanego problemu zastosowano komercyjny program FLUENT [3], oparty na metodzie mechaniki płynów. 5. Wyniki obliczeń Po przeprowadzeniu stacjonarnych obliczeń otrzymano przestrzenne rozkłady wektorów prędkości i pola turbulencji. Dla zilustrowania wektorów ruchu stali w kadzi, obiekt podzielono charakterystycznymi płaszczyznami. Płaszczyzna wzdłużna A przechodzi przez przekrój wlewu, natomiast B przez przekroje otworów wylewowych. Płaszczyzna C znajduje się między otworem wylewu drugim, a trzecim, natomiast płaszczyzna D pomiędzy otworem wylewu drugim, a pierwszym. Rys. 5. Rozkład wektorów prędkości [m/s] na płaszczyźnie A (bez przegrody) Rys. 6. Rozkład wektorów prędkości [m/s] na płaszczyźnie B (bez przegrody) Na rysunku 4 pokazano siatkę obliczeniową wygenerowaną w badanym obiekcie. Prezentowane wektory prędkości ilustrują ruch stali we wnętrzu kadzi i pokazują strukturę przestrzenną tego ruchu. Na rysunkach 5 do 8 pokazano lokalne rozkłady wektorów prędkości 12 na płaszczyznach dla kadzi bez przegrody, natomiast na rysunku od 9 do 12 dla kadzi z przegrodą. - Rys. 7. Rozkład wektorów prędkości [m/s] na płaszczyźnie C (bez przegrody) Rys. 8. Rozkład wektorów prędkości [m/s] na płaszczyźnie D (bez przegrody) Rys. 9. Rozkład wektorów prędkości [m/s] na płaszczyźnie A (z przegrodą) Rys. 10. Rozkład wektorów prędkości [m/s] na płaszczyźnie B (z przegrodą) Rys. 11. Rozkład wektorów prędkości [m/s] na płaszczyźnie C (z przegrodą) Rys. 12. Rozkład wektorów prędkości [m/s] na płaszczyźnie D (z przegrodą) 6. Wnioski Umieszczenie wewnątrz kadzi dodatkowych przegród zmienia w wymierny sposób obraz ruchu metalu. Wywołane przegrodą zaburzenia przepływu, niosą za sobą istotne zmiany obejmujące strukturę przepływu, co ma następujące konsekwencje: wstawienie przegród w znacznym stopniu różnicuje ruch stali, w obszarze wlewowym od obszaru wylewowego, powstała w strefie wlewowej w kadzi z przegrodą cyrkulacja, ułatwia wypływanie wtrąceń niemetalicznych do fazy żużlowej. Badania te pokazują, że potrzeby optymalizacji kształtu przestrzeni wewnętrznej kadzi pośredniej, pozostają ciągle aktualne, bowiem modyfikacja wewnętrznej geometrii może być poszerzona o dodatkowe elementy tj. jazy i tamy. Literatura [1] T. Lis, Współczesne metody wytwarzania stali, Gliwice 2000. [2] B.E. Launder, D.B. Spalding: Meth. Appl. Mech. Eng., vol 3, 1974, 289. [3] www.fluent.com Opiekun pracy Mgr inż. Tomasz Merder 13 MODELOWANIE MATEMATYCZNE WYPŁYWANIA WTRĄCEŃ NIEMETALICZNYCH W KADZI POŚREDNIEJ COS Adam Cwudziński Studenckie Koło Naukowe „INFOMET” Wydział Inżynierii Procesowej, Materiałowej i Fizyki Stosowanej Politechnika Częstochowska Wstęp Procesy produkcyjne we współczesnym świecie są nakierowane na wysoką wydajność, a produkt powstający ma posiadać jak najlepszą jakość, przy stosunkowo nie wielkiej cenie. Wszystko to powinno odbywać się przy możliwie najmniejszym koszcie wytworzenia. Dzięki temu wzmocniła się pozycja procesów ciągłych, pozwalających na maksymalne wykorzystanie mocy produkcyjnych urządzeń, możliwość mechanizacji, automatyzacji i komputeryzacji procesu. Proces ciągłego odlewania stali stał się więc podstawowym sposobem odlewania ciekłej stali dając przy tym możliwość otrzymywania wlewków: dobrej jakości, jednorodnych, wolnych od segregacji i jamy skurczowej, o drobnoziarnistej strukturze i dobrej powierzchni [1]. Urządzenie COS składa się w uproszczeniu z kadzi lejniczej, kadzi pośredniej, krystalizatora spełniającego rolę chłodzenia pierwotnego i ciągu rolek transportowych pozwalających na dalsze chłodzenie (chłodzenie wtórne). Ewolucja COS-ów doprowadziła do tego, że zaczęto odlewać ciekłą stal o wymiarach zbliżonych do wymiarów wyrobów gotowych, a także odlewa się bezpośrednio stal na wymiar końcowy np. szyny. Dlatego sprawą priorytetową jest zapewnienie wysokiej czystości ciekłej stali wprowadzanej do krystalizatora. Tutaj swą znaczącą rolę zaczyna odgrywać kadź pośrednia, stanowiąca specyficzny reaktor metalurgiczny, w którym metalurdzy mogą jeszcze zwiększyć stopień czystości ciekłej stali, tworząc wraz z piecem stalowniczym i agregatami metalurgii drugorzędowej zwarty proces technologiczny. Jest ona odpowiedzialna za odpowiednie dozowanie, z ściśle określoną wydajnością ciekłego metalu wprowadzanego do krystalizatora. Dlatego o kadzi pośredniej możemy powiedzieć, że jest ona kolejnym, a zarazem ostatnim etapem poprawienia czystości stali, zaliczającym się do tzw. metalurgii trzeciorzędowej. Stalownie na całym świecie dążą do uzyskania jak najkorzystniejszych geometrii wewnętrznych kadzi pośrednich, które poprzez stosowanie: tam, przelewów, przegród i progów znacznie poprawią flotację wtrąceń niemetalicznych w wyniku wydłużenia czasu przebywania stali w kadzi, co sprzyja ich wypływaniu do żużla. Także materiały ogniotrwałe ścian muszą cechować się wysoką odpornością na działalność erozyjną i korozyjną ciekłej kąpieli metalowej. Ponadto, aby zmniejszyć kontakt ciekłej stali z powietrzem stosuje się osłonę argonową lub rury osłonowe oraz specjalne zasypki izolujące. Doprowadzenie do jak najmniejszej liczby wtrąceń niemetalicznych w stali, która wpływa do krystalizatora jest słuszne i zgodne z regułą, że wtrącenia niemetaliczne wywierają szkodliwy wpływ na zapoczątkowanie i rozprzestrzenianie się pęknięć zmęczeniowych. Dla wyjaśnienia wpływu geometrii kadzi oraz warunków przepływu stali na zintensyfikowanie procesów flotacji przeprowadzono badania modelowe. W tym celu wybrano technikę modelowania numerycznego. Wykonano geometrię badanego obiektu oraz siatkę obliczeniową w programie GAMBIT, a symulację zachowania się wtrąceń niemetalicznych przeprowadzono w programie FLUENT. Program ten jest programem służącym do obliczeń przepływu cieczy 14 lub gazów, opartym na metodzie objętości kontrolnych. Metoda ta dopuszcza wykorzystywanie strukturalnych i niestrukturalnych siatek obliczeniowych oraz siatek o strukturze hybrydowej. FLUENT [2] może wykonać obliczenia na obiektach płaskich 2D oraz przestrzennych 3D. Charakterystyka modelu Badania przeprowadzono dla dwóch kadzi pośrednich o pojemności 22 Mg: oryginalnej i kadzi zmodyfikowanej. Modyfikacja kadzi polega na zabudowaniu jej dna dwoma przegrodami. Ponieważ kadź jest symetryczna względem osi głównej, dlatego do obliczeń wykorzystano połowę obiektu (rys. 1). Rys.1. Szkic przestrzenny badanej kadzi (kadź oryginalna), wymiary w [mm] Do numerycznego rozwiązania rozpatrywanego problemu zastosowano program Fluent 6.2. Natomiast siatkę obliczeniową wykonano w programie Gambit 2.0. Metodyka badań Dla ciekłej stali przyjęto następujące własności fizyczne: gęstość 7010 kg/m3, ciepło właściwe 821 J/Kg⋅K, przewodność cieplna 30,5 W/m⋅K, lepkością 0,007 kg/m⋅s. Dla modelowania wtrąceń niemetalicznych w stali założono różne wielkości wtrąceń korundowych (Al2O3) o następujących średnicach: 1µm, 5µm, 10µm, 25µm, 50µm, 75µm, 100µm których własności fizykochemiczne wynoszą: gęstość 3990 kg/m3 i 5000 kg/m3, przewodność cieplna 2,25 W/m⋅K i ciepło właściwe 1324 J/kg⋅K. W badaniach zastosowano uproszczenie dotyczące kształtu wtrącenia niemetalicznego, przyjmując, że będzie ono miało postać kulistą [3], zgodnie z uproszczonym modelem jak na (rys.3). Na połowie wlewu założono ich usytuowanie poprzez przyjęcie pięciu grup o liniowym rozkładzie (rys.4). W każdym z tych punktów wpływa grupa 10000 wtrąceń niemetalicznych. Obliczenia trajektorii wraz z rozkładem wtrąceń niemetalicznych wykonano dla dwóch wariantów, pierwszy gdy wtrącenia różnią się gęstością (3990 i 5000 kg/m3) oraz drugi gdy różnią się średnicą (1µm, 5µm, 10µm, 25µm. 50µm, 75µm, 100µm). Gęstości wtrąceń przyjęte do obliczeń wynikają z faktu, że w rzeczywistości wtrącenia glinowe tworzą klastry o rozbudowanej strukturze i różnym udziale Al2O3 w stosunku do fazy spajającej czyli metalu. Rys.3. Przyjęty do obliczeń model wtrącenia niemetalicznego Al2O3 Rys.4. Punkty wpływania wtrąceń niemetalicznych Al2O3 do kadzi pośredniej 15 Wyniki obliczeń Po przeprowadzeniu obliczeń otrzymano trójwymiarowe rozkłady wektorów prędkości stali wraz z polami turbulencji, które opisano szczegółowo w pracy [4]. Proces symulacji wypływania wtrąceń niemetalicznych pozwolił na zobrazowanie drogi przepływu wtrąceń korundowych przez kadź pośrednią od otworu wlewowego aż do chwili wypłynięcia z kadzi lub przechwycenia ich przez warstwę żużla znajdującego się na powierzchni stali. Na rysunku 5 przedstawiono tor ruchu czterech wtrąceń niemetalicznych o średnicy 10 µm w kadzi pośredniej bez przegrody, natomiast rysunek 6 pokazuje ten sam przypadek, tylko dla kadzi z przegrodą. W obu przypadkach zastosowano model stochastyczny ruchu wtrąceń w ciekłej stali. Rys.5. Trajektoria przepływu 4 wtrąceń niemetalicznych ( Al2O3) w kadzi pośredniej bez przegrody Rys.6. Trajektoria przepływu 4 wtrąceń niemetalicznych (Al2O3) w kadzi pośredniej z przegrodą Udział % Dystrybucję wtrąceń niemetalicznych w wewnątrz kadzi oceniono na podstawie analizy statystycznej grupy 10000 wtrąceń. W tym celu przedstawiono wykresy ilości wtrąceń niemetalicznych (Al2O3) wypływających ze stalą oraz przechwyconych do żużla, dla dwóch geometrii kadzi. Rysunki 7 - 8 obrazują rozkład procentowy ilości wtrąceń przechodzących do żużla oraz wypływających przez otwory wylewowe w zależności od średnicy i gęstości wtrąceń niemetalicznych. 100% 90% 80% 70% 60% 50% 40% 30% 20% 10% 0% Wylew 3 Wylew 2 Wylew 1 1 5 10 25 50 75 100 Żużel Wielkość wtrąceń niemetalicznych [mikrometry] Rys.7. Rozkład (%) udziałów wtrąceń niemetalicznych (Al2O3 ) o gęstości 3990kg/m3 w kadzi pośredniej bez przegrody 16 Udział % 100% 90% 80% 70% 60% 50% 40% 30% 20% 10% 0% Wylew 3 Wylew 2 Wylew 1 1 5 10 25 50 75 100 Żużel Wielkość wtrąceń niemetalicznych [mikrometry] Rys.8. Rozkład (%) udziałów wtrąceń niemetalicznych (Al2O3 ) o gęstości 5000kg/m3 w kadzi pośredniej bez przegrody Z obliczeń modelowych wynika, że faza żużlowa może przechwycić od 50% do prawie 100% w przypadku kadzi bez przegrody, a w przypadku zastosowania przegród od 80 do 100% wtrąceń tlenkowych (w zależności od wielkości wtrąceń). Zmiana gęstości właściwej klasterów wtrąceń glinowych (w dopuszczalnym zakresie) nie ma wpływu na ilość przechwytywanych wtrąceń przez żużel. Wnioski Zastosowany w obliczeniach symulacyjnych przestrzenny model przepływu ciekłej stali w kadzi pośredniej pozwolił wyznaczyć trajektorie korundowych wtrąceń niemetalicznych i ich dystrybucję. Na podstawie przeprowadzonych obliczeń można stwierdzić, że: w miarę wzrostu wielkości wtrąceń niemetalicznych (w zakresie od 1µm do100 µm) zwiększa się udział wtrąceń przechwytywanych przez żużel, pochłaniana ilość wtrąceń niemetalicznych przez żużel świadczy dobrze o jego rafinacyjnym działaniu co istotnie poprawia czystość odlewanej stali, na wypływanie wtrąceń niemetalicznych ma nieznaczny wpływ ich gęstość, badania przeprowadzone na kadzi pośredniej z przegrodą dowodzą, że stosowanie przegród znacznie poprawia flotację wtrąceń i ich absorpcję do żużla, przeprowadzony model będzie pomocny w zakresie optymalizacji konstrukcji wewnętrznej kadzi, celem poprawienia czystości końcowej stali. Literatura 1. Lis Teresa – Współczesne metody otrzymywania stali, Gliwice, 2000 2. www.fluent.com 3. Yuni Miki, Brian G. Thomas: Modeling of Inclusion Removal in a Tundish, Metalurgical and Materials Transactions, August 1999 4. Adam Cwudziński, Damian Kosiński, Tomasz Merder: Modelowanie numeryczne przepływu stali w wielootworowej kadzi pośredniej, Zeszyty Studenckiego Towarzystwa Naukowego Nr. 2, Wydawnictwo Studenckiego Towarzystwa Naukowego, Kraków 2003 Opiekun naukowy referatu dr hab. inż. Jan Jowsa, prof P.Cz. mgr inż. Tomasz Merder 17 SPOSOBY BADAŃ PRZEPŁYWU STALI W KADZI POŚREDNIEJ Adrian Gonera, Przemysław Woliński Studenckie Koło Naukowe „INFOMET” Wydział Inżynierii Procesowej, Materiałowej i Fizyki Stosowanej Politechnika Częstochowska 1. Wstęp Przemysł hutniczy charakteryzuje się wysokimi kosztami urządzeń hutniczych jak i kosztami eksploatacji produkcji. Zminimalizować je można poprzez uzyskanie jak największej wydajności przy zachowaniu dobrych własności stali. Urządzenia do ciągłego odlewania stali pozwalają na maksymalne wykorzystanie mocy produkcyjnej urządzeń, dając możliwość automatyzacji, mechanizacji i komputeryzacji procesu. Technologia COS umożliwia odlewanie wlewków o przekroju kwadratowym, prostokątnym lub kołowym oraz kęsisk o wymiarach bliskich wymiarom końcowym. Urządzeniem, które w ostatniej fazie procesu produkcji ciekłej stali może w istotny sposób poprawić jej czystość, jest kadź pośrednia COS. W kadzi pośredniej może zachodzić wiele procesów chemicznych i fizycznych. Dlatego duży nacisk kładzie się na opracowanie optymalnych rozwiązań przepływu medium, który zależy od geometrii wewnętrznej. W tym celu stosuje się różnorodne badania, najczęściej stosuje się techniki modelowania, ze względu na trudności związane z wysokotemperaturowymi obiektami. Powstało wiele prac które były poświęcone badaniom rozmaitych aspektów metalurgii w kadzi pośredniej. W pracy przedstawiono zarys problemów dotyczących badań modelowych, z szczególnym uwzględnieniem modelowania matematycznego. 2. Współczesne metody badań modelowych Istnieją trzy rodzaje metod badania zjawisk zachodzących podczas odlewania stali [1,2,3]: Pierwszym rodzajem są badania na obiektach ,,gorących” czyli przeprowadzane najczęściej w urządzeniach prototypowych i o znacznie mniejszej skali lub urządzeniach przemysłowych. Ten ostatni rodzaj badań jest rzadko stosowany ze względu na dużą trudność oraz koszty badań. W badaniach na obiektach metalurgicznych tj. kadziach odlewniczych, kadziach pośrednich i katalizatorach można wyróżnić dwa sposoby pomiarów w fazie ciekłej i fazie stałej. W fazie ciekłej do opisania czystości stali i składu chemicznego ciekłej stali oraz żużla wykorzystuje się próby tzw. ,,lizakowe”. Próbki te analizowane są spektograficznie lub metodą chemiczną tzw. ,, na mokro” . W celu określenia sfery przejściowej podczas odlewania różnych gatunków stali pobiera się próbki lizakowe zasysające ciekłą stal z krystalizatorów co kilka minut w celu określenia czasu po jakim zmieni się skład chemiczny kąpieli na wylewach (pojawi się nowy gatunek stali na wylewie kadzi). W fazie stałej wycina się próbki kęsisk wycina się próbki kęsisk w celu badań metalograficznych np. określenie rozkładu wtrąceń za pomocą mikroskopów elektronowych. Kolejnym metodą badań jest modelowanie fizyczne na obiektach zimnych. Modelowanie fizyczne jest metodą powszechnie stosowaną. Pozwala ono uzyskać informację o charakterze przepływu ciekłej stali przez urządzenie COS, a także daje informacje o 18 zjawiskach w trakcie jej mieszania. Główną uwagę w tej metodzie zwraca się na zjawiska zachodzące w kadziach stalowniczych, kadziach pośrednich oraz na krystalizatorze ponieważ mają one zasadniczy wpływ na efekty modelowania. Najczęściej modele fizyczne urządzeń do ciągłego odlewania stali buduje się dzięki wykorzystaniu metod hydrodynamiki. W modelach ciekłą stal zastępuje się najczęściej wodą, ponieważ jej lepkość kinetyczna w temperaturze pokojowej jest zbliżona do lepkości ciekłej stali w temperaturze 1873 K. Modele te buduje się z przeźroczystych materiałów tj. plexiglesu lub szkła się w celu ułatwienia poglądowej oceny zachodzących zjawisk w badanym obiekcie. Pozwalają one badać różne stany awaryjne, dzięki czemu można uniknąć większych strat. Modele wykonane są według ściśle określonych zasad wynikających z teorii podobieństwa. Dotyczy to zarówno konstrukcji samego modelu jak i metody prowadzonych badań. Ważnym elementem przy badaniach modelowych dotyczących ciągłego odlewania stali jest spełnienie kryteriów podobieństwa : - podobieństwa geometrycznego obiektu i modelu – gdzie zachowane jest podobieństwo wymiarów modelu i obiektu rzeczywistego tzn. stosunek odpowiednich wielkości jest stały SL = L' = const L (1) - podobieństwa hydrodynamicznego dla przepływu cieczy w modelu i obiekcie gdzie wyróżniamy : - podobieństwo kinetyczne - które zachowane jest jeżeli stosunek prędkości (przyspieszenia) czynnika w geometrycznie podobnych punktach modelu i obiektu rzeczywistego jest stały i wyraża się następującym wzorem : V1' V2' V3' V4' Vi' = = = = = SV V1 V2 V3 V4 Vi (2) - podobieństwo cieplne – charakteryzowane jest jako stosunek parametrów cieplnych występujących w modelu do zjawisk cieplnych zachodzącym w obiekcie rzeczywistym i wyraża się wzorem : T1' T2' T3' Ti' = = = = ST T1 T2 T3 Ti (3) - podobieństwo dynamiczne – charakteryzowane jest przez siły oddziaływujące na układ które mają wpływ na dynamikę przepływu i są ze sobą ściśle powiązane. Podobieństwo dynamiczne wyraża skala dynamiczna opisana równaniem : F1' F2' F3' F4' Fi' = = = = = SF F1 F2 F3 F4 Fi (4) Podobieństwa te realizuje się przy pomocy odpowiednich liczb kryterialnych, które muszą być jednakowe co do wartości zarówno w modelu jak i w obiekcie rzeczywistym, a wyniki badań uzyskane na modelach fizycznych odwzorowują wtedy warunki rzeczywiste pracy obiektu. Trzecim rodzajem badań jest modelowanie numeryczne z szerokim wykorzystaniu metalurgii. W połączeniu z elektroniczną techniką obliczeniową dają one możliwości rozwiązywania bardzo złożonych problemów. W ostatnich latach coraz powszechniej stosowane są tego typu badania ze względu na rozwój techniki obliczeniowej. Istnieje wiele korzyści z zastosowania tej metody. Często symulacja komputerowa unaocznia nam zjawiska zachodzące w danym projekcie, które w inny sposób byłoby trudno uwidocznić. Narzędzie to umożliwia w krótkim czasie symulację badanego zjawiska po zadaniu wstępnych parametrów. Dobierając poszczególne parametry możemy otrzymać optymalne wyniki. Otrzymane wyniki pozwalają znacznie szybciej i lepiej sięgać do zamierzeń projektu, oszczędzając czas i finanse. Ten rodzaj modelowania zjawisk jest wygodny, bo nie opuszczając biura możemy w krótkim czasie zrealizować projekt. Jest także tańszy od innych metod, nie musimy wykonywać kosztownych modeli i przeprowadzać 19 również kosztownych i pracochłonnych badań eksperymentalnych. Metoda ta jest stosowana coraz częściej w dziedzinie metalurgii. Do zamodelowania matematycznego charakteru przepływu ciekłej stali przez poszczególne elementy urządzenia do ciągłego odlewania wykorzystuje się równania Nawiera – Stoksa oraz równanie ciągłości przepływu. Modelowanie matematyczne wymaga dużej wiedzy zarówno matematycznej, informatycznej jak i technicznej związanej z metalurgią, która pozwoli sformułować, a następnie rozwiązać właściwy model. Wykorzystuje się w tej dziedzinie programy z zakresu CFD (Computational Fluid Dynamics) [4] oparte na podstawach obliczeniowej mechaniki płynów. Programy tego typu stają się coraz bardziej popularne w projektowaniu i optymalizacji różnych procesów dynamicznych. Ważnym jest nawet przy stosowaniu sprawdzonych i uznanych programów komercyjnych prawidłowe sformułowanie problemu, ustalenie warunków brzegowych oraz przyjęcie odpowiedniej techniki i strategii postępowania. 3. Istotne cechy modelowania matematycznego Pierwszym etapem metody numerycznej jest uwzględnienie układów równań modelowych i wygenerowanie dla badanej geometrii siatki obliczeniowej (2D lub 3D) w zależności od obiektu. Tworzenie siatki polega na określeniu liczby węzłów w obiekcie. Siatki mogą być generowane jako strukturalne , niestrukturalne lub hybrydowe. Siatki hybrydowe stosowane są w obiektach o bardzo złożonym kształcie. Z pośród wielu programów do generowania siatek należy wymienić program Gambit. Jest to program CADowski w którym możliwe jest samodzielne tworzenie geometrii i siatki obliczeniowej lub importowanie ich z innego programu CAD-owskiego. Kolejnym etapem jest ustalenie warunków brzegowych – przez przyporządkowanie ich brzegom geometrii. Wybierając warunki brzegowe przypisujemy odpowiednim wielkościom wartości dla: np. brzegu odpowiadającemu wlewowi stali do kadzi (zadajemy prędkość wpływającego medium, intensywność turbulencji, temperaturę medium);na brzegach odpowiadającym ścianom kadzi przypisujemy straty cieplne. Dane dotyczące właściwości mediów (gęstość, lepkość, ciepło właściwe, przewodność cieplną) wybieramy z bazy programu lub tworzymy własną bazę własności termo – chemicznych. Następnie wybieramy parametry stosowanej metody numerycznej: określamy błąd aproksymacji , rodzaj aproksymacji składników konwekcyjnych równań pędu, korekcji ciśnienia itp. Po ustaleniu tych wszystkich parametrów uruchamiamy obliczenia iteracyjne. Jednym z kilku programów z gatunków CFD jest komercyjny program Fluent służący do zagadnień przepływów gazów i cieczy jedno- lub wielo fazowych z możliwością wymiany ciepła. 4. Przykłady modelowych badań w metalurgii W obliczeniach dotyczących modelowania przepływu ciekłej stali w kadzi pośredniej wykorzystany został komercyjny program FLUENT, wyposażony w preprocesor GAMBIT służący do generacji siatki punktów węzłowych. Otrzymane przykładowe wyniki ujawniają ruch metalu w kadzi oraz towarzyszące temu zjawiska. Po dokonaniu obliczeń możemy uzyskać przestrzenny rozkład wektorów prędkości, pól turbulencji i temperatury lub przedstawić je na interesujących nas płaszczyznach. Rysunki 2 i 3 przedstawiają wektory prędkości w kadzi pośredniej. 20 0,5 m/s 0,03 m/s Z Z X Y X Y Rys. 2. Rozkład wektorów prędkości stali Rys. 3. Rozkład wektorów prędkości stali (m/s) stali na płaszczyźnie D (m/s) stali na płaszczyźnie C Rysunek 4 pokazuje rozkład pól temperatur i turbulencji w kadzi . Rys.4. Izotermy stali w (K) na płaszczyźnie przechodzącej przez wylewy kadzi 5. Wnioski Jeszcze niedawno optymalizacja procesów przepływu ciekłej stali w urządzeniach hutniczych opierała się na modelach wodnych. Ciągły rozwój obliczeniowych metod modelowania przepływów oraz rozwój komputerów stworzył dodatkową metodę badawczą nie posiadającej takich ograniczeń jak badania na obiektach rzeczywistych lub modelach wodnych. Mając do dyspozycji program obliczeniowy i wydajną jednostkę obliczeniową możemy w bardzo krótkim czasie i niedużych nakładach finansowych uzyskać rozwiązanie stawianego problemu. Modelowanie matematyczne jest narzędziem coraz powszechniej stosowanym. W świecie corocznie jest publikowanych kilkaset artykułów z wynikami badań opartych na tej metodzie prezentujących różne dziedziny życia. literatura [1] S. Singh, S.C. Koria: ISIJ International, vol. 33, 1993, nr. 12, s. 1228. [2] D. Mazumdar, G. Yamanoglu, R. Guthrie: Steel Research, vol.68, nr. 7, 1997, s. 293. [3] D. Mazumdar, G. Yamanoglu, R. Shankarnarayanan, R. Guthrie: Steel Research, vol. 66, nr. 1, 1995, s. 14. [4] http://www.fluent.com/solutions/examples/x112.htm Opiekun pracy mgr inż. Tomasz Merder 21 MODELOWANIE NUMERYCZNE WYPŁYWANIA STALI Z KADZI Anna Herdzik, Ewelina Wrześniak Studenckie Koło Naukowe „INFOMET” Katedra Ekstrakcji i Recyrkulacji Metali POLITECHNIKA CZĘSTOCHOWSKA 1.Wstęp W odpowiedzi na zapotrzebowania klienta, światowa metalurgia stali jest ukierunkowana na wytwarzanie produktów o bardzo wysokiej jakości. Warunki stawiane przez kontrahentów, związanych z hutami mogą być spełnione dzięki wprowadzeniu na wydziałach stalowni procesu ciągłego odlewania stali. Technologia COS pozwala odlewać wszelakie gatunki stali, praktycznie bez ograniczeń kształtu wlewka. Ciągłe odlewanie stali we współczesnej metalurgii wypiera konwencjonalne metody odlewania stali. Proces ciągłego odlewania to powiązane ze sobą operacje, od przebiegu których zależy jakość odlanego wlewka ciągłego. Podczas procesu odlewania ciekły metal dostarczany w kadzi stalowniczej, przelewany jest poprzez wylew do kadzi pośredniej, która zapewnia odpowiednie dozowanie metalu do krystalizatorów. W krystalizatorze (chłodzonym wodą), zachodzi wstępny proces krzepnięcia wlewka, a zastygające pasmo ciągnione jest przez system rolek chłodzących. Aby otrzymać stal dobrej jakości, należy kontrolować etapy przejścia stali pomiędzy tymi obiektami tak, by nie nastąpiło wtórne natlenienie, oraz aby ograniczyć lub uniemożliwić przedostanie się żużla do kąpieli metalowej. Dlatego ważne jest zabezpieczenie strumienia stali osłonową rurą ceramiczną, oraz określenie wysokości krytycznej stali w kadzi, przy której zaczyna się tworzyć lej, który jest przyczyną zasysania żużla. Proces ciągłego odlewania stali jest ściśle zintegrowany z systemem kadzi lejniczych spełniających rolę: reaktorów w których stal jest nagrzewana (energią elektryczną, bądź pochodzącą w wyniku przebiegu reakcji chemicznych), reaktorów pozwalających na mieszanie ciekłej kąpieli (gazem obojętnym lub cewką indukcyjną), reaktorów dających możliwość wprowadzania dodatków stopowych (zestaw dozowników, druty rdzeniowe, czy mechanizm wdmuchiwania dodatków). W niektórych kadziach stalowniczych można regulować ciśnienie i skład atmosfery gazowej nad powierzchnią kąpieli [1] Dla zapewnienia odpowiedniej jakości ciekłej stali należy zapobiegać jej wtórnemu utlenianiu i ograniczać zawartość wtrąceń niemetalicznych. W pierwszym przypadku stosujemy osłony ceramiczne i nadmuch strumienia argonu, aby zmniejszyć powierzchnię kontaktu miedzy ciekłą stalą a powietrzem atmosferycznym. W drugim przypadku należy zapobiegać i minimalizować ilości przenoszonego żużla na odcinku kadź stalownicza-kadź pośrednia-krystalizator, ze względu na jego ujemny wpływ na proces produkcji i jakość wyrobu gotowego. Przyczyną części trudności wynikających z przedostawania się żużla z kadzi wraz z metalem jest powstawanie zawirowań podczas spustu. Żużel może być transportowany w dół przez rdzeń takich zawirowań nawet do najgłębszych warstw ciekłej stali w kadzi pośredniej. W celu zapobiegania zaciągania żużla do stali, stalownicy musieli prowadzić wzrokowe obserwacje strumienia metalu, metoda ta jest jednak dość nieefektywna i niebezpieczna. Wprowadzono także automatyczne programy wychwytywania żużla w kadzi np. system AMEPA [2] Zagadnienie związane z ograniczeniem zaciągania żużla jest wciąż doskonalone i badane metodami modelowania na obiektach fizycznych - tzw. modele zimne, i 22 modelowania numerycznego za pomocą programów komputerowych, umożliwiających symulację procesów metalurgicznych. W pracy wykorzystano komercyjny program FLUENT służący do obliczania przepływów cieczy lub gazów i jego preprocesor GAMBIT, w którym wykonuje się geometrię modelowanego obiektu i jego siatkę. Obliczenia modelowe, oparto na metodzie numerycznej Volume of Fluid (VOF) pozwalającej określić zachowanie się fazy żużlowej na fazie metalowej podczas opróżniania kadzi stalowniczej. W oparciu o własne, modelowe obliczenia na obiekcie 2D, starano się ustalić wysokość krytyczną powstawania leja bezwirowego. Szczegółowo przeanalizowano zjawisko tworzenia się leja bezwirowego (symulacja komputerowa) podczas spustu stali z kadzi. Zależność opisującą opróżnianie naczynia w obszarze krytycznym można znaleźć w oparciu o równania Bernoulliego i elementy analizy bezwymiarowej. Ze względu na brak możliwości sprawdzenia tego procesu w obiekcie wysokotemperaturowym, wykorzystane zostały symulacje numeryczne dla ruchu różnych cieczy, co pozwoliło określić wysokość krytyczną dla rzeczywistego obiektu. 2. Charakterystyka obiektu Symulację komputerową przeprowadzono na kadzi stalowniczej o pojemności 130 Mg (rys.1), której podstawowe wymiary przedstawia tabela 1. Rys.1. Schemat Kadzi stalowniczej wykorzystanej w badaniach Tabela 1. Własności fizyczne płynów użytych w obliczeniach Średnica Średnica Wysokość Średnica górna kadzi, dolna kadzi, kadzi, otworu wylewowego, D1 D2 H d [mm] [mm] [mm] [mm] 3060 2870 2964 50 Długość rury wylewowej, l [mm] 780 3. Model matematyczny Zastosowano wielofazowy model matematyczny VOF ( Volume of Fluid) [3], który zakłada współistnienie kilku faz, określonych ułamkiem objętościowym w przestrzeni obliczeniowej. Model matematyczny zawiera równia ciągłości i pędu. Rozwiązania modelu pozwala określić wysokość krytyczną (poniżej której nie można opróżniać kadzi), aby wraz z metalem nie wydostawał się żużel. 4. Zakres badań W obliczeniach rozważono trzy przypadki: stal-powietrze woda-powietrze woda- olej-powietrze 23 Tabela 2. Własności fizyczne płynów Płyn Gęstość, kg/m3 Lepkość, kg/(m⋅s) Powietrze 1.225 1.789e-05 Woda 998.2 0.001003 Olej „Dow 50” 960 0.048 Ciekła stal 7010 0.007 Rys.2. Przypadki rozważane w obliczeniach A) stal-powietrze, B) woda-powietrze, C) woda-olej-powietrze Obszar obliczeniowy (2D) wraz z siatką niestrukturalną i przyjętymi warunkami brzegowymi przedstawionymi w tabeli 3 i na (rys.3) wygenerowano w programie Gambit, a obliczenia numeryczne wykonano za pomocą komercyjnego kodu Fluent [4]. Tabela 3. Szczegółowe wymiary obiektu Obszar kadzi Lustro metalu Otwór stalowniczej lub żużla wylewowy Warunki „pressure „pressure brzegowe inlet” outlet” Oś symetrii „axis” Pozostałe elementy geometrii obiektu „wall” Rys.3. Warunki brzegowe i siatka obliczeniowa badanego obiektu 5. Wyniki obliczeń Na rysunkach 4-6 przedstawiono początkowy etap tworzenia się leja bezwirowego dla przypadków rozpatrywanych podczas obliczeń modelowych. W wyniku obliczeń otrzymano wartości wysokości krytycznej pojawienia się leja bezwirowego, które przedstawia tabela 4. Tabela 4. Wartości wysokości krytycznej Rozpatrywany układ fazowy Stal-powietrze Woda-powietrze Woda-olej-powietrze Wysokość krytyczna [m] 0.02 0.022 0.07 24 Rys.4. Powierzchnia międzyfazowa stal-powietrze, proces tworzenia się leja bezwirowego Rys.5. Powierzchnia międzyfazowa woda-powietrze, proces tworzenia się leja bezwirowego Rys.6. Powierzchnia międzyfazowa woda-olej-powietrze, proces tworzenia się leja bezwirowego 6. Wnioski Zastosowany model VOF jest odpowiedni dla zobrazowania procesu tworzenia się leja bezwirowego nad otworem wylewowym kadzi stalowniczej. Bazując na przeprowadzonych obliczeniach możemy stwierdzić że: model woda-olej-powietrze daje dobrą prognozę symulacji układu rzeczywistego stalżuzel-powietrze, na podstawie wysokości krytycznej możliwe będzie określenie optymalnego poziomu ciekłej stali w kadzi, gwarantującego minimalne zaciągania żużla kadziowego, co w efekcie przyczyni się do: • poprawa czystości stali, przez zmniejszenie ilości wtrąceń niemetalicznych • wydłużenie sekwencji odlewania na kadzi pośredniej. Opiekun naukowy referatu dr hab. inż. Jan Jowsa mgr inż. Marek Warzecha [1] Lis Teresa – Współczesne metody otrzymywania stali, Gliwice, Rok 2000 B. Allemand, Y. Zbaczyniak: „Oddanie do eksploatacji w hucie Dollac Dunkierka układu amepa do wykrywania żużla przedostającego się z kadzi odlewniczej do kadzi pośredniej“, Tłumaczenia Techniczne-617, Rok 1996 [3] . C.W. Hirt, B.D. Nichols: „J. Computation. Phys.”, vol.39, 1981, 201-225 [4] www.fluent.com sa – Współczesne metody otrzymywania stali, Gliwice, Rok 2000 [2] 25 KOMPUTEROWE GROMADZENIE INFORMACJI W BAZACH DANYCH Michał Tomasik Studenckie Koło Naukowe „INFOMET” Wydział Inżynierii Procesowej, Materiałowej i Fizyki Stosowanej Politechnika Częstochowska Baza danych jest to rodzaj komputerowego zbioru kartotek - czyli magazyn danych o określonej budowie. Baza danych jest modelowym ujęciem fragmentu rzeczywistości będącego przedmiotem zainteresowania osób, instytucji, organizacji, firm, zakładów itp., reprezentującym fakty dotyczące tej rzeczywistości w formie umożliwiającej ich przetwarzanie w komputerze. Prostymi przykładami baz danych są spisy towarów, rozkłady jazdy, ewidencje pracowników, wykazy płatnicze, wszelkiego rodzaju rejestry bankowe, kartoteki urzędowe, katalogi biblioteczne, książki telefoniczne, szpitalne historie chorób, dzienniki lekcyjne, księgi parafialne itd. Wszystkie one powinny spełniać jeden warunek: ich tworzenie, przechowywanie, uaktualnienie i przeszukiwanie powinno się odbywać przy wykorzystaniu komputera. Jednym z najpopularniejszych, wystarczająco zaawansowanych i profesjonalnych programów do zarządzania bazami danych jest Microssoft Access. Nie jest on, jak się mylnie uważa, bazą danych, lecz systemem zarządzającym bazą danych (DBMS- Database Managment System), za pomocą którego można tworzyć i administrować bazami danych. Access jest systemem zarządzania relacyjnymi bazami danych; oznacza to, że poszczególne tabele mogą być ze sobą powiązane. Wykonana baza danych przedstawia przykładowy rejestr - spis filmów rozbudowany o ich opisy, aktorów, reżyserów, gatunków filmowych itp. Jest ona dobrym przykładem możliwości tego programu. Access należy do systemów zarządzania relacyjnymi bazami danych, co oznacza, że poszczególne tabele mogą być ze sobą powiązane. Pomimo tego, że wszystkie obiekty bazy danych znajdują się w jednym pliku istnieje możliwość importowania / eksportowania pojedynczych tabel. Microsoft Access jest zaawansowanym programem baz danych, ale jego dużym atutem jest dostępność dla mniej doświadczonych użytkowników. Poniższa tabela zawiera rekordy odpowiadające opisowi filmów z następującymi polami: Numer Filmu, Numer Płyty, Tytuły Polski, Gatunek itd. Każdy wiersz – film posiada przypisany podarkusz danych opisujący Imię i Nazwisko Aktora oraz Dane Osobowe Aktora. Ten z kolei posiada następny podarkusz, który zawiera biografię danego Aktora. Przykład ten dobrze obrazuje możliwości przedstawienia danych za pomocą tabel programu Microsoft Access. Prostszym sposobem i bardziej przejrzystym do zamieszczania danych w danej tabeli jest wykorzystanie formularzy, a poza tym oferującym możliwość wprowadzania danych bezpośrednio z jednej tabeli do drugiej, co eliminuje ewentualne błędy podczas wprowadzania danych. Formularz jest blankietem wyświetlającym na ekranie monitora zawartość poszczególnych rekordów, które można przeglądać, modyfikować bądź wprowadzać nowe. 26 Formularze oferują ponadto możliwość dowolnych zmian szaty graficznej jak i układu pól w widoku formularz. Rysunek 1. Tabela Opis filmów Rysunek 2. Przykładowy formularz Opis filmów Jak widać formularz oprócz pól tekstowych może zawierać obiekty graficzne, służące do przedstawienia, w tym wypadku, plakatu filmu, ale może to być również zdjęcie danego pracownika czy produktu-wyrobu, itp. W większości przypadków typowa zawartość bazy danych przekracza nasze doraźne potrzeby, gdyż zazwyczaj chcemy uzyskać jedynie część danych potrzebną w danym momencie np. chcemy dowiedzieć się, ile powstało filmów w danym roku lub określonego reżysera. Aby skoncentrować się na tych istotnych informacjach, bez przedzierania się przez resztę danych, stosujemy narzędzia umożliwiające sortowanie oraz filtrowanie. Opiekun pracy Mgr inż. Marek Warzecha 27 BEZPIECZEŃSTWO INFORMACJI ELEKTRONICZNEJ Marcin Niemiec Katedra Telekomunikacji Akademia Górniczo-Hutnicza Wszechobecność komputerów, powiększająca się sieć Internet, skomputeryzowane hale produkcyjne, ciągły rozwój technologii cyfrowych ... Wszystko to wskazuje na to że stajemy się społeczeństwem informatycznym. Informacja elektroniczna (rozmowy telefoniczne, poczta elektroniczna, dane na dyskach komputerowych, itd.) staje się więc główną formą informacji. Tu jednak pojawia się pewien problem – bezpieczeństwo. Informacja elektroniczna narażona jest na szereg różnych ataków. W celu jej zabezpieczenia, stworzono wiele różnych mechanizmów ochrony. Informacja w formie elektronicznej, przede wszystkim dlatego stała się tak popularna, ponieważ stosunkowo prosto można ją przesłać w inne, często bardzo odległe miejsce. I tak, zamiast przewozić stertę akt czy książek, można to zrobić o wiele prościej i szybciej za pomocą sieci komputerowej. Taka technika wymaga jednak zapewnienia wysokiego poziomu bezpieczeństwa – w zależności oczywiście od wagi przesyłanych obiektów. Bezpieczeństwo danych w sieci, staje się szybko jednym z najpoważniejszych problemów z którym styka się współczesna telekomunikacja. Ogromne sumy przeznaczane na bezpieczeństwo i wciąż nowe techniki ochrony, świadczą jak żywym problemem stała się dziś jej poufność. Bardzo ważnym i zarazem najprostszym sposobem są podstawowe, nieprogramowe sposoby ochrony: alarmy w salach informatycznych, identyfikacja osób w budynku, itp. Szacuje się ze większość znanych ataków na poufność danych, była możliwa „dzięki” zaniedbaniu tych właśnie aspektów. Innym rodzajem są programy i techniki informatyczne wspomagające ochronę informacji. Nim właśnie będzie poświęcony ten referat. Aby móc skutecznie chronić dane, należy zastanowić się na jakie ataki będą one narażone. Przyjmuje się, że każdy sieciowy atak można zaliczyć do jednego z czterech podstawowych rodzajów: podsłuchiwanie (ang. interception), przerwanie łączności (ang. interruption), zmiana informacji (ang. modyfication) i fabrykowanie danych (ang. fabrication). Bierny atak, czyli podsłuchiwanie transmitowanych informacji, jest zwykle najłatwiejszy do przeprowadzenia, lecz w wielu przypadkach nie powoduje on katastrofy. Jeśli na przykład uda się komuś „podsłuchać” jakiś czujnik temperatury, dowie się o niezbyt istotnej rzeczy. Jeśli natomiast doprowadzi do przerwania łączności z tym czujnikiem (drugi z grupy ataków), może to spowodować o wiele większe szkody: np. wywołać alarm pożarowy. Kolejnym atakiem na spójność danych jest modyfikacja. Nietrudno się domyślić jak ważą sprawą jest ona w przypadku transakcji bankowych. Dodanie kilku zer na swoim koncie jest marzeniem niejednego hakera. Ostatnim z grupy jest fabrykowanie danych. Oszust komputerowy podszywa się wtedy pod inną osobę i dzięki temu jest w stanie wprowadzić w błąd odbiorcę sfabrykowanych informacji lub uzyskać od niego jakieś poufne dane. Stosując różne metody ochrony przed opisanymi atakami, należy pamiętać o podstawowej zasadzie: czym większe bezpieczeństwo systemu tym mniejsza jego wydajność i funkcjonalność. Zależność taka została przedstawiona na rysunku 1: 28 Rys.1. Wydajność systemu informatycznego w zależności od poziomu bezpieczeństwa Wynika z niego że najwydajniejsze są systemy bez zabezpieczeń, natomiast systemy bardzo bezpieczne są mało wydajne. Sztuką jest znaleźć kompromis pomiędzy tymi dwoma wielkościami. Dwie podstawowe techniki ochrony danych przed atakami to uwierzytelnianie i szyfrowanie. Przy czym pierwsza zabezpiecza przed dostępem do informacji, a druga przed jej odczytaniem przez osoby niepożądane. Uwierzytelnianie jest technika sprawdzania tożsamości, sprawdza czy dana osoba jest naprawdę tą za którą się podaje, czy może jest to intruz. Uwierzytelnianie użytkowników odbywa się najczęściej za pomocą: hasła, klucza, karty inteligentnej, cech biologicznych (głos, linie papilarne, analiza siatkówki czy tęczówki oka, itp.). Najprostszym i najpopularniejszym jest stosowanie haseł: jest to tania technika, trudna do zgadnięcia (zwykle !), prosta do zapamiętania, przenośna, łatwa do zmiany i konfiguracji. Szyfrowanie, czyli takie przetworzenie danych, aby stały się one niemożliwe do odczytania przez osoby niepowołane, jest kolejnym ze sposobów ochrony informacji. Obecnie jest jednym z najlepszych, o czym świadczy najlepiej powszechność jego stosowania. Typowy kryptosystem zawiera: - alfabet, za pomocą którego można zaprezentować zakodowaną informację (kryptogram) - klucze, za pomocą których kodujemy i dekodujemy informacje, - algorytm kodowania i algorytm dekodowania informacji. Szyfrowanie informacji kojarzy się najczęściej z utajnianiem informacji wojskowych, działalnością wywiadu czy przesyłaniem dokumentów kanałami dyplomatycznymi. Faktycznie, do niedawna kryptografia była stosowana jedynie do takich celów, jednak rozwój teleinformatyki spowodował konieczność jej cywilnego zastosowania. To właśnie dzięki niej jest możliwe działanie telefonów komórkowych, wypłata gotówki z bankomatu, itp. Najstarszą znaną techniką kodowania był szyfr Cezara z I wieku przed Chrystusem. Polegała ona na zastępowaniu każdej z liter, literą stojącą w alfabecie dwa miejsca dalej, czyli np. zamiast ‘a’ pisano ‘c’, zamiast ‘m’ pisano ‘o’, zamiast słowa ‘vici’ pisano ‘xkek’. Wraz z rozwojem cywilizacji udoskonalano ten szyfr, jednak najpoważniejszą jego wadą była słaba odporność na atak alfabetyczny. Okazuje się że w danym języku, każda litera ma swą własną częstość występowania: np. w języku polskim, litera ‘A’ występuje w tekście z prawdopodobieństwem 8,49 %, natomiast litera ’H’ z częstością 1,19 %. Znając więc częstość 29 występowania wszystkich liter w danym języku, można łatwo rozszyfrować tekst: należy w tym celu policzyć częstość występowania liter w zakodowanym tekście, a następnie sprawdzić jakim naprawdę literom ona odpowiada. Prawdziwą rewolucją w dziedzinie kryptografii, stała się maszyna szyfrująca Enigma – najbardziej znany system szyfrujący w historii kryptografii Za jej pomocą wojsko niemieckie w czasie II wojny światowej szyfrowało tajne informacje. Rys.2. Maszyna szyfrująca Enigma Zasada działania tej maszyny szyfrującej polegała na kilkakrotnej zmianie (w zależności od liczby kół) danej litery na inną, w zależności od ciągle zmieniającego się położenia kół (wirników). Analiza tekstu szyfrowanego była wyjątkowo trudna, ponieważ w trakcie kodowania koła Enigmy mogły znajdować się w wielu różnych pozycjach: przykładowo dla maszyny z pięcioma wirnikami mamy 11 881 376 różnych możliwości zakodowania danej litery. Warto przypomnieć że jako pierwsi, kody Enigmy przełamali polscy naukowcy. Obecnie stosuje się wiele różnych metod szyfrowania. Odpowiednia metoda powinna być wybierana w zależności od wagi szyfrowanej informacji. Do niedawna najczęściej stosowana techniką był algorytm DES (ang. Data Encryption Standard), wprowadzony do celów niemilitarnych przez rządową agencje USA. Dziś jest wypierany przez inne, konkurencyjne metody: IDEA, RSA, Rabin, itp. Współczesne szyfry wykorzystują binarność informacji elektronicznej, czyli taką zaletę że wszystkie dane mają postać zer i jedynek. Wspomniane metody kodowania danych, polegają na wielu różnych zmianach tych ciągów zer i jedynek, tak aby całkowicie ukryć ich pierwotny porządek. Jedną z ciekawszych metod jest szyfrowanie z wykorzystaniem krzywych eliptycznych. Pole ona na tym, że wybierana jest pewna krzywa oraz dwa punkty na niej leżące. Następnie przeprowadza się dwie proste, z których jedna przecinając krzywą wyznaczy zaszyfrowaną lub rozszyfrowaną informację. Obecnie technika ta należy do jednych z najlepszych metod utajniania informacji. Często w celu większej ochrony, nie ujawnia się sposobu szyfrowania danych. Ten sposób wykorzystują operatorzy telefonii komórkowej. Wiadomo jedynie że do ochrony są stosowane tam m.in. algorytmy oznaczone jako A3 i A8. Technika ta jest objęta ścisłą tajemnicą. 30 Analizując współczesne systemy teleinformatyczne, można zauważyć że stosowane są w nich wszelkie możliwe sposoby ochrony informacji. Tworzone w tym celu protokoły bezpieczeństwa, integrują w sobie różne metody utajnienia. Przykładowym protokołem służącym do zabezpieczeń komunikacji w lokalnych sieciach komputerowych może być Kerberos (czyli Cerber z mitologii greckiej). Stworzony w Massachusetts Institute of Technology zawiera w sobie szereg technik bezpieczeństwa. Przede wszystkim, za jego pomocą, odbywa się uwierzytelnianie klientów chcących uzyskać dostęp do sieci. Stosowane są algorytmy szyfrowania – cała komunikacja następuje w postaci zaszyfrowanej. W celu dodatkowego bezpieczeństwa wprowadzono techniki dystrybucji nowych kluczy, za pomocą których klienci bezpiecznie szyfrują dane. Poza tym zaimplementowana jest w nim możliwość podpisów cyfrowych. Cały ten protokół jest techniką niezwykle skomplikowaną, ale zapewnia wysoki poziom bezpieczeństwa. Dynamiczny rozwój sieci bezprzewodowych, jaki można zaobserwować w ostatnich latach, stawia przed inżynierami telekomunikacji wyzwanie zapewnienia bezpieczeństwa. Autor referatu zajmuje się jednym z takich problemów. Tworzone są obecnie podstawy teoretyczne nowego protokołu routingu w sieciach mobilnych. Ze względu na wykorzystywane medium transmisyjne – fale radiowe, łatwo jest przechwycić transmitowane dane i uzyskać niepowołany dostęp do sieci. Nowy protokół musi zapewnić więc wysoki poziom bezpieczeństwa, przy możliwie niskim nakładzie obliczeniowym. Na XXVIII Międzynarodowej Studenckiej Sesji Naukowej chciałbym przedstawić własny model protokołu bezpieczeństwa, który być może zapewni w przyszłości poufność w sieciach mobilnych. 31 PAN I WPAN – MAŁE SIECI TELEINFORMATYCZNE W ZASTOSOWANIACH DOMOWYCH I PRZEMYŚLE Michal Martynkiewicz AGH Kraków Katedra Telekomunikacji Rozwój sieci komputerowych sprawił, że oplatają nas one coraz bardziej, coraz gęstszą i mocniejszą „pajęczyną”. Sieci teleinformatyczne możemy podzielić na kilka rodzajów, w zależności od przyjętego kryterium. Jednym z nich jest zasięg danej sieci. Mając na uwadze wspomniane kryterium, sieci teleinformatyczne możemy podzielić na: WAN – Wide Area Network (sieci rozległe), MAN - Metropolitan Area Network (sieci miejskie), LAN – Local Area Network (sieci lokalne) i PAN (Personal Area Network). Każdy rodzaj wymienionych sieci komputerowych posiada odrębne obszary zastosowań, od bardzo dużych sieci globalnych (WAN) zajmujących się transmisja danych na wielkie odległości po sieci klasy PAN, które służą do komunikacji urządzeń elektronicznych na niewielkie odległości. Sieci klasy PAN są bardzo interesującym zagadnieniem, między innymi ze względu na zaawansowane rozwiązania techniczne, na których bazują, ogromny wachlarz możliwych zastosowań – ograniczony głównie inwencją firm zajmujących się implementacją tej techniki w urządzeniach elektronicznych. Przewidywany jest prężny rozwój sieci teleinformatycznych tej klasy w najbliższym czasie spowodowany niskim kosztem urządzeń dla odbiorcy końcowego i mnogością możliwych zastosowania takich sieci zarówno w przemyśle jak i w zastosowaniach domowych. Skrót PAN możemy przetłumaczyć jako osobiste sieci komputerowe. Sieci dedykowane są do dokonywania transmisji sygnałów cyfrowych na niewielkie odległości. Maksymalna odległość, na jaką może zostać przeprowadzona transmisja w urządzeniach wyposażonych w takie interfejsy kształtuje się na poziomie 10 – 20 m. Rozważając tę technikę pod względem medium transmisyjnego, małe sieci teleinformatyczne możemy podzielić przewodowe i bezprzewodowe. Najbardziej perspektywiczny jest rozwój sieci bezprzewodowych. Małe sieci bezprzewodowe rozwiązują wiele problemów, z którymi borykano się przy łączeniu urządzeń elektronicznych, wymieniających miedzy sobą dane na niewielkie odległości. Technika WPAN uwalnia użytkowników od połączeń przewodowych, od potrzeby łączenia za pomocą przewodów urządzeń, chcących dokonać między sobą transmisji. Wachlarz możliwych zastosowań tej techniki jest bardzo szeroki, dla przykładu można podać: transmisja zdjęć lub sekwencji video z aparatu cyfrowego do komputera, transmisja dźwięku z domowego sprzętu HiFi lub walkmana do bezprzewodowych słuchawek. Za pomocą takich rozwiązań technicznych możemy uwolnić się też od przewodów w myszce i klawiaturze komputerowej, możemy wymieniać dane pomiędzy dwoma organizerami osobistymi czy palmtopami, które są w stanie przesyłać między sobą na przykład numery telefonów i kontakty wspólnych znajomych, ich elektroniczne wizytówki, różnego rodzaju dokumenty elektroniczne i wiele innych rodzajów danych. Te same dane mogą przesyłać między sobą telefony komórkowe, mające w sobie zaimplementowane odpowiednie moduły do komunikacji w technologii WPAN. Z techniki tej mogą również korzystać użytkownicy komputerów przenośnych dokonując wymiany danych na rożnego rodzaju spotkaniach i konferencjach. Opisywane techniki transmisji danych równie dobrze mogą spisywać się w przemyśle. Również w tej dziedzinie można zaproponować wiele 32 rozwiązań technicznych dla urządzeń tej klasy. Przykładem niech będą różnego rodzaju czujniki i urządzenia telemetryczne, które przekazują wyniki dokonanych pomiarów do urządzenia zbiorczego, którym może być dla przykładu komputer właśnie za pomocą bezprzewodowych „pikosieci”. Urządzenia pracujące w standardzie 802.15 (taki numer posiadają standaryzacje Międzynarodowej Uni Telekomunikacyjne) mogą charakteryzować się bardzo zróżnicowaną przepustowością. Prędkości transmisji wahają się od kilkunastu kilobitów do kilkudziesięciu Megabitów na sekundę. Tak duże zróżnicowanie spowodowane jest dużą ilością możliwych zastosowań tych urządzeń – wysokie prędkości transmisji pozwalają zaspokoić użytkowników potrzebujących dużych transferów danych. Małe prędkości transmisji mogą być wykorzystywane dla przykładu w urządzeniach telemetrycznych, które przesyłają do systemu małe ilości danych, a co za tym idzie mogą być zasilane ze źródeł bateryjnych, a zatem uniezależnia się takie urządzenia od sieci energetycznej. Zakłada się obecnie ze czas życia urządzeń będzie równy czasowi życia baterii w nim się znajdującej (okres życia urządzeń dochodzący do kilku lat). Niemałą też role mogą odegrać pikosieci przewodowe – głównie w przemyśle. Obecnie sztandarowym przykładem takich rozwiązań jest samochód firmy BMW. W tej limuzynie zamontowanych jest 16 komputerów różnego rodzaju połączonych ze sobą przewodami światłowodowymi tworząc mała sieć teleinformatyczną. Rozwój technik transmisji tej klasy pozwala przypuszczać, iż już niedługo opisywane technologie zagoszczą również w naszych domach. Ludzie będą mogli coraz szerzej korzystać z oferowanych przez nie możliwości. Bardzo duże możliwości zastosowań bezprzewodowych i przewodowych „pikosieci” czynią ten temat szczególnie interesujący. 33 GPS - GLOBAL POSITIONING SYSTEM Kasia Dobrowolska Wydziału Geodezji Górniczej i Inżynierii Środowiska Akademii Górniczo-Hutniczej w Krakowie Globalny System Pozycjonowania jest systemem nawigacji satelitarnej, składającym się z 24 satelitów Ministerstwa Obrony Stanów Zjednoczonych, rozmieszczonych w sześciu planach orbitalnych. Pierwotnie opracowany dla potrzeb nawigacji amerykańskich łodzi podwodnych, system GPS dostarcza użytkownikom dokładnych informacji o czasie, położeniu i prędkości. Obecnie jego „globalność” wyraża się w powszechnej dostępności sygnału satelitarnego GPS 24 godziny na dobę we wszystkich zakątkach świata. Wszystkie satelity transmitują sygnał, używając niezależnych kodów dla wyróżnienia sygnałów z poszczególnych satelitów. Sygnał satelitarny zawiera dane o statusie systemu, tzw. efemerydę zawierającą dane orbitalne oraz charakterystyki zegarów. Odbiorniki użytkowników GPS mierzą odległość od satelit przez pomiar czasu, jaki potrzebny jest na przesłanie sygnału satelitarnego od satelity do anteny odbiornika. Ponieważ położenie satelity w momencie transmisji jest możliwe do określenia przy pomocy informacji z efemerydy, położenie odbiornika w przestrzeni trójwymiarowej jest obliczane poprzez triangulację na podstawie pomiarów odległości do kilku (trzech) satelit. Dodatkowy pomiar odległości (czwarty) umożliwia zlikwidowanie błędu zegara odbiornika. Pierwotną i nadal najważniejszą funkcją systemu GPS jest zapewnienie bezpieczeństwa narodowego Stanów Zjednoczonych poprzez przewagę strategiczną U.S.Army. Dlatego właściciel systemu – Departament Obrony USA – zastrzegł sobie prawo do ograniczenia dokładności systemu dla ogółu użytkowników cywilnych. I z prawa tego skorzystał wprowadzając błąd selektywny tzw. S.A. (Selective Availability). Dla cywilnych użytkowników oznacza to w praktyce zaniżenie dokładności pomiaru pozycji przez pojedynczy odbiornik GPS nawet do 100 m. Oczywiście takie dokładności pomiarowe nie są wystarczające dla większości zastosowań profesjonalnych GPS. Metoda korekcji różnicowej (Differentia GPS – DGPS) oferuje potencjał pomiaru pozycji 2-10 metrów dla zastosowań dynamicznych i poniżej 2 metrów dla użytkowników statycznych. Polega ona, mówiąc w skrócie, na użyciu odbiornika spoczywającego na punkcie o dokładnie wyznaczonych współrzędnych (np. na punkcie sieci geodezyjnej) do porównania jego pozycji z pozycją obliczaną na bieżąco na podstawie informacji satelitarnej GPS. Tym sposobem uzyskujemy miarę błędu – tzw. Poprawkę różnicową, którą możemy dostarczyć dowolnej ilości odbiorników w zasięgu ok. 500 km. Dzięki użyciu metody DGPS użytkownicy cywilni na całym świecie zyskali możliwość pomiaru pozycji z dużymi dokładnościami. Geodezyjne pomiary GPS, dostarczające dane o pozycji rzędu od kilku milimetrów do 10- 20 cm, wymagają zastosowań precyzyjnych odbiorników 12- kanałowych, zdolnych do wtórnego odzyskiwania tzw. kodu precyzyjnego P . Wymaga to sporej mocy obliczeniowej (niektóre odbiorniki wyposażone są w procesory RISC stosowane w stacjach roboczych). Dodatkowo stosuje się równoczesne odbieranie informacji GPS na dwóch różnych częstotliwościach (L1 oraz L2), w celu wyeliminowania błędów powstających podczas przechodzenia sygnału przez jonosferę. 34 Nawigacja była oczywiście pierwotnym zastosowaniem systemu. Fakt podawania przez odbiornik GPS dokładnych danych o położeniu był tylko początkiem rozwoju nowych generacji odbiorników nawigacyjnych, które z czasem stawały się coraz lżejsze, bardziej ergonomiczne w obsłudze oraz korzystające coraz pełniej z możliwości technologii komputerowej. Uwidoczniło się to w wyposażaniu tych urządzeń w coraz to nowe, przyjazne w obsłudze funkcje: ruchome mapy, bazy danych (np. baza danych lotnisk cywilnych wraz z częstotliwościami radiowymi). Coraz szersze są także możliwości ich współpracy z zewnętrzną elektroniką : autopilotem, komputerem pokładowym. Odbiorniki przystosowane są do przyjmowania sygnału korekcyjnego DGPS w czasie rzeczywistym poprzez wielofunkcyjny port komunikacyjny. Globalny charakter technologii GPS powoduje, że jest ona traktowana jako obiecująca dla najpoważniejszych zastosowań nawigacyjnych, takich jak konstrukcja systemów lądowania z zerową widocznością czy systemów nawigacji okrętów na terenie portów. Największą zaletą wykorzystania Globalnego Systemu Pozycjonowania jest światowy zasięg sygnału satelitów oraz, co za tym idzie, globalna jednorodność uzyskiwanych wyników. Umożliwia to tworzenie rozwiązań dla wielu dziedzin życia z szansą na ich zastosowanie na szeroko pojętym rynku światowym. Ta sytuacja prawdopodobnie spowoduje powstanie „masy krytycznej” zastosowań GPS oraz zwiększenie liczby użytkowników systemu. Być może powtórzy się nawet – w odpowiednio mniejszej skali – fragment historii globalnej sieci komputerowej Internet, czyniąc z Globalnego Systemu Pozycjonowania zjawisko nazywane w języku angielskim „untility” – czyli coś równie niezbędnego jak telefon, samochód czy kalkulator. Będzie to tym bardziej możliwe, że technologia ta, jako całkowicie bazująca na osiągnięciach nowoczesnej elektroniki, jest zdolna do zaoferowania coraz tańszych odbiorników satelitarnych GPS. A kiedy cena odbiornika będzie wystarczająco niska, prawie każdy będzie mógł z niego korzystać. Jedna z podstawowych potrzeb człowieka – potrzeba poznania swojego położenia w przestrzeni – zostanie całkowicie zaspokojona. 35 SYSTEM STEROWANIA URZĄDZENIAMI GOSPODARSTWA DOMOWEGO Łukasz Matusiak Koło Naukowe „Telephoners” Akademia Górniczo-Hutnicza w Krakowie Wydział Elektrotechniki, Automatyki, Informatyki i Elektroniki Katedra Telekomunikacji Tematem mojego referatu jest zaprezentowanie możliwości zastosowania domowego komputera klasy PC oraz sieci Internet do sterowania praktycznie wszystkimi urządzeniami gospodarstwa domowego, a dokładniej mówiąc do ich włączania i wyłączania. Bardzo często podczas oddawania do użytku nowego budynku mówi się, że jest to tzw. „budynek inteligentny”. Jest to oczywiście pewnego rodzaju zabieg marketingowy, ale zastanawiające jest, co kryje się pod tym tak popularnym ostatnio i niestety nadużywanym przymiotnikiem „inteligentny”. Dość szybko i łatwo można się zorientować, że to określenie jest używane najczęściej w przypadku zastosowania skomplikowanych układów elektronicznych wykonujących niektóre czynności i „myślących” niejako za ludzi. Tak jest np. w przypadku skomplikowanych systemów poprawiających bezpieczeństwo jazdy montowanych coraz częściej w samochodach (np. układ kontroli trakcji itp.). Oczywiście w przypadku budynków jest bardzo podobnie. Automatycznie mogą być dobierane parametry powietrza (temperatura i wilgotność), włączane oświetlenie, czy też włączane i wyłączane wszelkiego rodzaju urządzenia znajdujące się praktycznie w każdym domu (np. odbiornik telewizyjny i radiowy). W przypadku bardzo zaawansowanych systemów jest możliwa personalizacja ustawień. Wtedy system jest dostosowany do konkretnego użytkownika, rozpoznaje osobę przebywającą w pomieszczeniu i wybiera opcje najlepsze dla danej osoby np. włącza ulubioną muzykę. Najczęściej nie wiemy, z jakich elementów składa się taki system. Okazuje się jednak, że zazwyczaj jest to odpowiednio zmodyfikowany komputer osobisty, zamknięty w odpowiedniej obudowie i wyposażony w adekwatne do realizowanych funkcji oprogramowanie. To co wyróżnia taki komputer, to zespół rozbudowanych układów wejścia/wyjścia, dzięki którym możliwe jest podłączenie szeregu urządzeń i układów zewnętrznych. Im bardziej skomplikowany jest system, tym jego cena jest odpowiednio wyższa. Jednakże któż z nas, przed powrotem do domu nie chciałby włączyć ogrzewania? Czy też będąc dłużej poza domem, kto nie chciałby włączać oświetlenia o wybranej porze w dowolnym pomieszczeniu naszego mieszkania? Takie czynności nie są zarezerwowane tylko i wyłącznie dla „budynków inteligentnych”, ale są dostępne praktycznie dla każdego użytkownika domowego komputera z dostępem do Internetu. Oczywiście do komputera musi zostać podłączony odpowiedni układ, który będzie sterował naszymi urządzeniami oraz musi zostać zainstalowane (na tym samym komputerze) specjalne oprogramowanie sterujące tym układem i odbierające nasze rozkazy. Ponadto, co wydaje się oczywiste, komputer musi być cały czas podłączony do zasilania i włączony do sieci Internet. Pozostawienie włączonego komputera może rodzić pewne obawy, ale wydaje się, że coraz częściej będzie koniecznością. A stanie się zupełnie oczywiste w przypadku, gdy będzie 36 znacząco wpływać na bezpieczeństwo naszego mieszkania. Natomiast podłączenie do Internetu nie powinno w najbliższej przyszłości być wielkim problemem. Integralną częścią systemu jest specjalna strona WWW, dzięki której będziemy mogli wydawać rozkazy naszemu komputerowi. Musimy mieć oczywiście dostęp do tej strony w miejscu naszego pobytu. Jednakże dzięki komputerowym sieciom bezprzewodowym oraz telefonii komórkowej łączność jest zapewniona praktycznie z każdego miejsca. Interfejs sterujący zbudowany jest z dwóch układów scalonych oraz kilkunastu elementów elektronicznych. Komunikacja z komputerem odbywa się za pomocą portu szeregowego (RS 232). Układ sterujący odbiera odpowiednio przygotowane komendy, które włączają lub odcinają zasilanie. Na komputerze zainstalowany jest program przekazujący nasze rozkazy do interfejsu. Na XXVIII Międzynarodowej Studenckiej Sesji Naukowej przedstawię problematykę zdalnego sterowania urządzeń przy wykorzystaniu komputerów osobistych oraz ogólnoświatowej sieci Internet. Zaprezentuję również samodzielnie wykonany układ elektroniczny, pozwalający włączać i wyłączać urządzenia m. in. gospodarstwa domowego. 37 INTELIGENTNE BUDYNKI Kamil Mielech Akademia Górniczo-Hutnicza w Krakowie Kierunek Elektronika Coraz bardziej nowe technologie wkraczają we wszystkie dziedziny naszego życia. Przy budowie domów, obiektów biurowych czy zakładów przemysłowych inwestorzy coraz częściej zwracają uwagę nie tylko na koszt budowy ale również na koszt przyszłej eksploatacji i wygody użytkowania. Zaczyna dostrzegać się korzyści płynące z zastosowania zdecentralizowanych systemów sterowania, regulacji i nadzoru – systemów Inteligentnego Budynku. Budynek posiadający system klimatyzacji, alarmowy, przeciwpożarowy, wentylacji, ogrzewania, sterowania oświetleniem i żaluzjami nie musi być budynkiem inteligentnym. Inteligencja budynku polega na tym ze systemy te są zintegrowane i każdy jest informowany o stanie innego i podejmuje odpowiednie „inteligentne” decyzje. Gdy np. ostatni pracownik opuszcza biuro zamykają się rolety, obniża się temperatura w pomieszczeniu, wentylacja ustawia się na najniższą moc a do nie dokręconego kranu w toalecie zostaje odcięty dopływ wody. System taki nie tylko zapewnia optymalny komfort i bezpieczeństwo ale minimalizuje zużycie energii (elektrycznej i cieplnej), monitoruje i zarządza sprzętem technicznym, nadzoruje system wykrywania pożarów i włamań oraz nadzoruje dostęp do systemu zarządzania, może również przygotowywać raporty o stanie budynku. Instalowanie systemów nadzoru oświetlenia i ogrzewania jest szczególnie efektywne w budynkach energochłonnych takich jak hale maszyn produkcyjnych, obiekty handlowe i biurowe. Koszt wprowadzenia technologii jest nieporównanie mniejszy od korzyści jakie zapewnia jego zastosowanie. „Inteligentnym budynkiem” mogą być obiekty o różnej wielkości jak i przeznaczeniu: obiekty przemysłowe, budynki biurowe, budynki sklepowe, szpitale oraz domy mieszkalne. System Inteligentnych Budynków LonWorks W ostatnich latach odchodzi się od systemów scentralizowanego sterowania na rzecz rozwiązań rozproszonych – czyli takich gdzie sterowanie nie jest skupione w jednym miejscu ale każda część systemu jest wykonuje swoje zadanie niezależnie. Jednym z rozwiązań systemów rozproszonych jest rozwiązanie amerykańskiej firmy Echelon Corporation - technologia LonWorks, oparta na nowej lokalnej sieci sterowania zwanej LON (ang. Local Operating Network). Podstawową jednostką sieci jest węzeł który jest czujnikiem, prostym przełącznikiem, lub też skomplikowanym komputerem do przetwarzania danych itd. Sercem węzła sytemu LonWorks jest Neuron Chip – układ wieloprocesorowy realizujący wszystkie czynności związane z pracą węzła i komunikacji z otoczeniem. Każdy Neuron Chip posiada niepowtarzalny numer, stanowiący jego identyfikator. Do komunikacji z innymi węzłami można wykorzystać typowy kabel skrętkowy (taki na którym budowane są sieci komputerowe), sieć energetyczną, kabel światłowodowy, sieć radiową, podczerwień albo inne medium transmisyjne. W systemie LonWorks przyjęto jako założenie możliwość obsługi dużych sieci o uniwersalnym zastosowaniu. Dlatego system taki cechuje: 38 krotki czas projektowania i uruchomienia systemu niskie koszty w stosunku do systemów sterowanych przez centralny system wielofunkcyjność elementów otwartość (łatwe dołączanie nowych systemów i węzłów do zautomatyzowanych obiektów) niezawodność prawidłowa współpraca urządzeń pochodzących od różnych producentów łatwość rozbudowy systemu lub zmian w jego architekturze możliwość centralnego monitorowania pracy systemu możliwość dostępu do systemu z zewnątrz możliwość tworzenia sieci o kilku tysiącach węzłów i kilku kilometrach długości możliwość stosowania w tej samej sieci różnych mediów transmisyjnych LonWorks daje gwarancje najwyższego bezpieczeństwa pracy, ponieważ wszystkie urządzenia wymieniają informacje między sobą niezależnie od programu nadrzędnego. Awaria programu nadrzędnego lub któregokolwiek sterownika czy regulatora strefowego nie zakłóca pracy pozostałych urządzeń. To jest właśnie podstawowa zaleta „inteligencji rozproszonej” w wykonaniu LonWorks. System LonWorks ma zdecydowaną przewagę tam gdzie mamy do czynienia z jedną z poniższych sytuacji: potrzebna jest sieć, a nie ma możliwości kładzenia nowego kabla instalacja jest bardzo rozległa wymagana jest bardzo duża ilość węzłów i możliwość rozbudowy sieci potrzebna jest duża różnorodność funkcji urządzeń / węzłów Zalety LonWorks sprawiły, że stosowanie tej sieci stało się standardowym rozwiązaniem w wielu różnorodnych systemach. Otwartość i podatność na modyfikacje - możliwość tworzenia zdecentralizowanego systemu zarządzania jest powodem wykorzystania LonWorks w przemyśle. Dotychczasowe rozwiązania opierające się na sterownikach hierarchicznych okazują się bardziej zawodne i dużo droższe w eksploatacji od omawianej technologii. Niski koszt instalacyjny oraz duża liczba dostępnych modułów LonWorks spowodowała, że jest on chętnie stosowany w rozwiązaniach Inteligentnego Budynku. Początkowy nakład to tylko wykonanie okablowania, potem inteligencja systemu może rosnąć: sterowanie oświetleniem, zarządzanie zużyciem energii, ruchem wind, system alarmowy, przeciwpożarowy. Łatwość instalacji i konserwacji sieci (wszystkie urządzenia podłączone są do jednego przewodu) faworyzuje to rozwiązanie w instalacjach monitorujących i rejestrujących dane pomiarowe. Użytkownik ma możliwość dowolnego kształtowania swojej sieci: wprowadzania modyfikacji, rozbudowy o nowe moduły i funkcje, wybierania urządzeń od dowolnego producenta. Otwarta architektura LonWorks pozwala rozszerzyć obecny zakres działalności producentów urządzeń automatyki, umożliwiając ekspansję w kierunku nowych rynków. Zapewnia zarazem niższe ceny dla końcowego odbiorcy towaru, dzięki skróceniu czasu wprowadzania na rynek nowych produktów i coraz większej powszechności systemu LonWorks. Pierwsze urządzenia pracujące w systemie LonWorks powstały na początku lat dziewięćdziesiątych, a już obecnie urządzenia oznaczone znakiem LonMark obsługują około 30% sieci przemysłowych na świecie. LonMark to organizacja która czuwa nad prawidłowym rozwojem systemu LonWorks, zrzeszająca największe firmy z branży. Zadaniem LonMark jest przydział znaku jakości LonMark urządzeniom automatyki, korzystającym ze zmiennych 39 SNVT (ang. Standard Network Variables Type). Zmienne standardowe wprowadzono aby system mógł być nazwany otwartym. Przeprowadzono tez standaryzacje wszystkich funkcji. Stosowanie tych standardów daje gwarancje pełnej współpracy urządzeń różnych producentów. Zasadniczą zaletą systemu LonWorks jest tania rozbudowa istniejących instalacji. Instalacja składająca się z dwóch urządzeń może być rozbudowana do dziesiątek tysięcy przy minimalnych kosztach rekonfiguracji systemu. W przeszłości koszt rekonfiguracji był głównym hamulcem rozbudowy istniejących systemów. Efektywne wykorzystanie energii pozwala na zwrot kosztów inwestycji już po kilku latach. Źródła podają, że stworzenie zwartego systemu automatyki budynku pozwala zaoszczędzić na energii elektrycznej (do 50%) i ogrzewaniu (do 30%). Inteligentny dom Opisane systemy stają się jeszcze atrakcyjniejsze przez to że coraz częściej przenosi się taką inteligencję „pod strzechę”. Integrując w systemie inteligentnym nie tylko system grzewczy i energetyczny ale większość urządzeń elektronicznych – poza oczywistą zaletą oszczędności - może uczynić przebywanie w takim domu przyjemniejszym i wygodniejszym. Tak można wyobrazić sobie zwykły początek dnia w niezwykłym domu: system budzi nas o określonej godzinie, odsłaniają się żaluzje, jeśli za oknem jest jeszcze ciemno, na połowę mocy zapala się światło – tak, aby nie oślepiać domowników, w kuchni włącza się radio i czeka świeżo zaparzona kawa. Po wyjściu z domu system obniża temperaturę pomieszczeń, wyłącza światło i włącza alarm. Gdy np. jedno lub wiecej pomieszczeń jest nadmiernie nasłoneczniane czujniki nakazują opuszczenie rolet. Przy deszczu okna zostaną zamknięte a zraszanie trawników wyłączy się. Przed planowanym powrotem domowników temperatura w domu wraca do zadanej wartości. Przedstawiona wizja wydaje się futurystyczna ale takie domy już istnieją. Najbardziej znanym jest rezydencja twórcy firmy Microsoft - Billa Gatesa. Jednym z ciekawych elementów jest to że wcześniej ustawione preferencje pozwalają na taką prace systemu ze rozpoznaje on wchodzącą osobę i z głośników zaczyna płynąć ulubiona muzyka a na płaskich ekranach plazmowych pojawiają się ulubione obrazy. Na zachodzie od kilku lat rozwiązania inteligentne trafiają do rezydencji i domów jednorodzinnych. W Polsce zainteresowanie nimi zwiększa się ale jak na razie zarezerwowane jest dla bogatszej części społeczeństwa. Polscy klienci decydują się coraz częściej na nietypowe zamówienia – można podać za przykład wannę która po wysłaniu przez użytkownika wiadomości SMS, napełnia się wodą o żądanej temperaturze i utrzymuje ją przez cały czas kąpieli. Najprawdopodobniej z upływem czasu technologia stanie się coraz tańsza i doskonalsza tak, że poszerzy się krąg potencjalnych posiadaczy Inteligentnych Domów. Stosowanie opisanych rozwiązań zwiększa standard życia oraz jest - poprzez zmniejszenie zapotrzebowania na energię - ukłonem w stronę ekologii. 40 BADANIA FAZ AZOTKOWYCH I WĘGLIKOWOAZOTKOWYCH W NISKOWĘGLOWYCH STOPACH Andriej Projdak Narodowa Akademia Metalurgiczna w Dniepropietrowsku MODELOWANIE REDUKCJI STĘŻENIA TLENKÓW AZOTU PODCZAS DWUSTOPNIOWEGO SPALANIA GAZU ZIEMNEGO Mykhaylo Ivanov Narodowa Akademia Metalurgiczna w Dniepropietrowsku Wstęp Redukcja emisji zanieczyszczeń gazowych jest bezwzględną koniecznością wynikającą z ciągłej intensyfikacji procesów spalania oraz wprowadzania coraz to bardziej rygorystycznych norm ochrony środowiska. Wymusza to postęp w pracach badawczych w zakresie opracowywania nowych konstrukcji palników i opracowanie specjalnych technik spalania w celu obniżenia emisji tlenków azotu. Metody obniżania emisji NOx dzieli się na dwie zasadnicze grupy tj. pierwotne oraz wtórne. Przedsięwzięcia pierwotne zmniejszania emisji NOx stosuje się na etapie projektowania i budowy palników lub palenisk oraz przez wykorzystanie metod eksploatacyjnych. Biorąc pod uwagę mechanizmy powstawania NOx, metody ograniczające emisję podzielić można na trzy grupy technologiczne: zmniejszające maksymalną temperaturę, utrzymujące lokalną koncentrację tlenu na poziomie odpowiadającym stosunkowi nadmiaru w granicach 0,7÷0,9 oraz specjalne metody spalania . Istnieje również możliwość zwiększania skuteczności redukcji tlenków azotu poprzez połączenie pierwotnych metod redukcji NOx, jednak większość przeprowadzonych i opublikowanych badań obejmuje jedynie redukcję tlenków azotu przy zastosowaniu pojedynczych metod. 41 AERO-THERMAL PERFORMANCE IN INTERNAL COOLING CHANNELS (AR = 30) WITH DIMPLES Piero Distefano Dipartimento di Ingegneria e Fisica dell'Ambiente Universita degli studi della Basilicata Potenza, Italy One of the main parameters that designers can vary in order to increase the thermodynamic efficiency of a gas turbine is the turbine inlet temperature. Values over 2000 K are achieved nowadays, exceeding the melting point of the alloys used for NGV's and rotor blades. The need for cooling these components in the first stages of the turbine is therefore mandatory. For aeronautical applications, a combination of internal an external air cooling techniques is applied, using air bled from the compressor. In recent years, efforts directed at improving internal cooling have led to concepts that include the use of rib turbulators, pin fins, vortex generators and swirl-induced cooling or screw cooling. Usually, different kinds of cooling systems can be used at the same time in order to improve the performances. An example of such application is shown in Fig. 1. Figure 1. The schematic of a modern gas turbine blade with common cooling techniques Attention has recently focused on a relatively new type of cooling techniques with improved thermal-hydraulic performances, the Hemispherical Surface Dimple Technique. Preliminary investigations have shown that dimpled enhances heat transfer with minimal pressure drop penalty. This combination makes dimpled surfaces attractive from a turbine blade cooling perspective. This class of surface enhancements results from the depression of features into the cooling channel walls, forming recesses rather than projections. This concavities are known as dimples. Thus, the cooling technique used in this study is the 42 internal forced convection in a rectangular passage roughened by dimples, arrays of indentations along its surfaces. Heat transfer coefficients, overall pressure drop across the channel and friction factors are experimentally investigated in a rectangular channel (aspect ratio = 30:1) which has dimples on the two opposed walls. The side surfaces are smooth. It is a scaled up (Dh = 16;4 mm) plexiglass model of the turbine blade internal cooling channel. The facility used for this investigation models a straight cooling channel of a turbine blade. It has been constructed to perform the aerodynamic and heat transfer measurements. The facility has the following components along the flow direction: an inlet section, the test section, an outlet section, a settling chamber and a centrifugal blower. A schematic of the facility is shown in Fig. 2. Figure 2. Schematic of the facility In order to measure the cooling performance, measurements are carried out by means of thermocouples and water-manometers and results are given for Reynolds numbers ranging from 5000 to 20000. Three different changeable test sections are explored: smooth surface; dense dimpled surface; sparse dimpled surface. For the last two configurations both sides of the test section are equipped with dimple depth-to-print diameter (δ=Dd) ratio of 0,3. The ratio of channel height to dimple print diameter is 0;8. Two dimple surface densities are used: the sparse dimpled surface with 276 dimples and the dense dimpled surface with 541. Figure 3. Individual dimple geometry details The principal conclusions of the present study are summarized as follows. 43 For a given static pressure at the inlet, the inlet velocity profile is the same for all the configurations (smooth surface and dimpled surfaces). Using the smooth surface as test section, the pressure drops for the non heated and heated surfaces are close to each other (within 6%). A big difference between the pressure drop can be appreciated with dimpled surfaces, heated or not. For the dense dimpled surface the pressure drop in the case of heating is 35% lower than at ambient condition and for the sparse dimpled configuration it is 33% lower. This means that heated channel should have less pressure losses than the non heated one. Figure 4. ∆P for all configurations The Nusselt number increases with Reynolds number for all the configurations, and the data points follow an almost linear behavior. The Nusselt numbers are higher in both dimpled cases compared to those in the case of a smooth surface Among the concave dimple cases studied here, the configuration with dimples covering a smaller portion of the test surface enhances heat transfer more that the dense configuration, with dimples covering a larger portion of the test surface. Figure 5. Heat transfer results: variations of Nu with Re, all configurations The ratio Nu=Nu0 for each dimpled case increases with increasing Re with a gradually decreasing slope. The Nu=Nu0 distributions clearly show that the dimples in the sparse case on the surface enhances more the heat transfer. 44 Figure 6. Heat transfer results: variations of Nu=Nu0 with Re Variations of the friction factor with the Reynolds number are presented. The configuration with dense dimples on the surface clearly cause larger pressure drop than the sparse dimpled configuration. The results of the heated channel present a different behavior than the measured ones without wall heating. The maximum different between f1 and f0 is 64;2% (heated channel) versus 76% for the non heated channel. And the maximum different between f1 and f2 is 40;9% versus 44;5% for the non heated channel. Figure 7. Variations of f=f0 with Re. Non heated channels Figure 8. Variation of f=f0 with Re. Heated channels 45 MODELOWANIE NUMERYCZNE OPŁYWU PROFILU LOTNICZEGO O KSZTAŁCIE OPŁYWOWYM Piotr Warzecha Instytut Maszyn Cieplnych WYDZIAŁ INŻYNIERII MECHANICZNEJ I INFORAMYKII POLITECHNIKA CZĘSTOCHOWSKA Wprowadzenie W celu analizy modelu profilu lotniczego rozpatrujemy siły aerodynamiczne działające na niego. Są to siła nośna, skierowana pionowo do góry, oraz siła oporu, skierowana poziomo. Siła nośna równoważona jest poprzez siłę ciężkości, natomiast siłę oporu równoważy siła ciągu. Siła oporu: Px = c x ⋅ Siła nośna: ρ ⋅U 2 2 ∞ ⋅S Py = c y ⋅ ρ ⋅U 2 ∞ 2 ⋅S Wypadkowa sił: P = Px2 + Py2 Siły aerodynamiczne pojawiają się tylko wtedy, gdy występuje opływ ciała. Zależą one od kwadratu prędkości, gęstości opływającego czynnika, od kształtu, jego wymiarów oraz usytuowania go względem kierunku napływającego czynnika. Ciało, ustawione pod pewnym kątem do kierunku napływającego czynnika (zwanego kątem natarcia), może wywoływać siłę nośną, wielokrotnie większa od siły oporu. W zależności od ustawienia ciała, możemy uzyskać siłę nośną skierowana do góry lub w dół. Po przekroczeniu pewnej wartości kąta natarcia, następuje oderwanie warstwy przyściennej, co powoduje zmniejszenie siły nośnej oraz gwałtowny wzrost siły oporu. Wartości dla których przeprowadzone było modelowanie: - prędkość strugi niezakłóconej U=0.8M (M-prędkość dźwięku) - symulacje przeprowadzone dla płynu rzeczywistego (lepkiego) - model – symetryczny płat o długości 1m - siła nośna generowana poprzez zmianę kąta natarcia 46 Wyniki pomiarów Modelowanie profilu lotniczego przeprowadzane było w programie FLUENT, dla różnych wartości konta natarcia. 1.) Badanie profilu przy kącie natarcia 0° W pierwszej kolejności badany był płat przy zerowym kącie natarcia. Jak widać z powyższego rysunku rozkład prędkości dla takiego przypadku jest symetryczny, gdyż oś symetrii płata jest równoległa do wektora prędkości opływającego czynnika. Zauważyć można również, że najmniejsze prędkości uzyskujemy w przedniej oraz tylnej części płata. Natomiast największe w środkowej jego części. W samym środku przedniej części badanego profilu, prędkość posiada zerową wartość. Jest to punkt stagnacji. Za badanym profilem również obserwujemy małe wartości prędkości. Spowodowane jest to powstawaniem śladu aerodynamicznego, który charakteryzuje się małymi wartościami prędkości. Rys.1 Rozkład prędkości wokół profilu dla kąta natarcia 0° Rys.3 Wykres rozkładu ciśnienia nad i pod profilem dla kąta natarcia 0° Rys.2 Rozkład ciśnienia wokół profilu dla kąta natarcia 0° Ponieważ ciśnienie ściśle wiążę się z prędkością, możemy zatem przeprowadzić analizę rozkładu ciśnienia w oparciu o omówiony wyżej rysunek. Punkt stagnacji charakteryzujący się najmniejszą wartością prędkości jest jednocześnie punktem maksymalnego ciśnienia, co potwierdza zasadę zachowania energii. Ponieważ opływ jest symetryczny, zatem rozkład ciśnienia statycznego w funkcji długości płata zarówno pod jak i nad płatem nie ulega zmianie. W efekcie takiego opływu nie powstaje siła nośna, niezbędna do tego aby pokonać siłę ciężkości i unieść samolot ku górze. 2.) Badanie profilu przy kącie natarcia 5° a.) Prędkość Rys.4 Rozkład prędkości wokół profilu dla kąta natarcia 5° Kolejny etap to zbadanie zachowania się płata przy zmianie kąta natarcia. Zmianę kąta natarcia uzyskaliśmy poprzez zmianę kąta napływu wektorów prędkości na badany profil Tym razem przepływ nie jest już symetryczny i zaobserwować możemy inny rozkład prędkości w odniesieniu do wcześniejszego przypadku. Punkt stagnacji przesunął się z środkowej części płata na część dolną. W ten sposób nastąpiła zmiana w wielkościach powierzchni dolnej i górnej (przyjmując punkt stagnacji za środek podziału). Dla takiego przypadku widzimy, iż w górnej części płata osiągamy największe prędkości w jego przedniej 47 części, natomiast najmniejsze w tylnej części. Związane jest to z oderwaniem warstwy przyściennej. Rys.5 Rozkład ciśnienia wokół profilu dla kąta natarcia 5° Rys.7 Rozkład turbulencji wokół Rys.6 Wykres rozkładu ciśnienia nad i pod profilem dla kąta natarcia profilu dla kąta natarcia 5° 5° Duże wartości prędkości powodują, iż na górną część płata działa mniejsze ciśnienie, niż na powierzchnię dolną (rozkład ciśnienia statycznego w dolnej i górnej części przedstawia wykres na rys.6). Powstająca siła nośna jest równa różnicy pól między krzywą ciśnienia statycznego na dolnej i górnej powierzchni płata. Czerwona charakterystyka przedstawia rozkład ciśnienia na górnej powierzchni płata. Widoczna gwałtowna zmiana wartości ciśnienia spowodowana jest oderwaniem warstwy przyściennej na powierzchni płata. Rysunek 7 przedstawia rozkład turbulencji za badanym profilem. Możemy zauważyć, iż turbulencje pojawiają się dopiero wtedy, gdy następuje oderwanie warstwy przyściennej (pojawiają się wtedy duże gradienty prędkości). Dla kąta napływu 5 stopni, oderwanie warstwy następuje mniej więcej w połowie długości płata. Pojawienie się turbulencji wpływa bardzo niekorzystnie, gdyż powodują one zwiększenie siły oporu. 3.) Badanie profilu przy kącie natarcia 10° Zwiększenie kąta natarcia powoduje, iż punkt stagnacji przesuwa się jeszcze bardziej ku tylnej części dolnej powierzchni płata, zmniejszając tym samym jej powierzchnię. Jak widać z powyższego rysunku na górnej części płata w dalszym ciągu występują największe prędkości. Przesunięty został również punkt oderwania warstwy przyściennej, zwiększając w ten sposób obszar występowania turbulencji. Rys.8 Rozkład prędkości wokół profilu dla kąta natarcia 10° Rys.9 Rozkład ciśnienia wokół profilu dla kąta natarcia 10° Rys.10 Wykres rozkładu ciśnienia nad i pod profilem dla kąta natarcia 10° Powyższe wykresy potwierdzają przesunięcie się punktu oderwania warstwy przyściennej (czerwona charakterystyka), w stosunku do kąta napływu 5 stopni. Zwiększyło się wyraźnie pole powierzchni pod krzywą, co sugeruje na zwiększenie siły nośnej. Jednak przesunięcie się punktu oderwania warstwy przyściennej powoduje zwiększenie obszaru turbulencji, które jeszcze bardziej (niż dla napływu pod kątem 5 stopni) zwiększają siłę oporu. 48 Wnioski: Dr ag For ce=f(Kąt Natar cia) 60000 60000 50000 50000 40000 40000 Drag Force Lift force L i ft fo rc e = f(k ą t n a ta rc i a ) 30000 30000 20000 20000 10000 10000 0 0 0 5 10 15 20 25 30 35 40 45 0 50 5 10 15 20 25 30 35 40 45 50 Ką t na ta rc ia Ką t na ta rc ia Współczynnik doskonalości aer od=f(Kąt Natar cia) Współczynnik doskonałości aerodynamic 14 12 10 8 6 4 2 0 0 5 10 15 20 25 30 35 40 45 50 Kąt Natar cia Powyższe wykresu pokazują zależności: siły nośnej (lift force), siły oporu (drag force) oraz współczynnika doskonałości aerodynamicznej w funkcji kąta natarcia. Siła nośna osiąga swą największą wartość dla kąta natarcia około 36 stopni, jednak dla takiego kąta natarcia mamy dużą wartość siły oporu, co jest dla nas niekorzystne. Powinniśmy znaleźć taką optymalną wartość kąta natarcia, przy którym siła nośna ma stosunkowo dużą wartość, a opór aerodynamiczny najmniejszą. Do tego celu służy nam współczynnik doskonałości aerodynamicznej, jako stosunek siły nośnej do siły oporu. Charakterystyka współczynnika doskonałości aerodynamicznej w funkcji kąta natarcia wskazuje, iż dla uzyskania najlepszych parametrów przepływu najbardziej optymalnym kątem natarcia jest kąt około 3 stopni. 49 50 SEKCJA B 51 METODY ODZYSKU METALI Z PYŁÓW ŁUKOWYCH PIECÓW ELEKTRYCZNYCH Weronika Jakubiak Politechnika Częstochowska, Katedra Ekstrakcji i Recyrkulacji Metali Wprowadzenie Jednym z ważniejszych problemów stojących obecnie przed producentami stali jest konieczność utylizacji pyłów powstających w procesie produkcji stali w piecach elektrycznych. Należą one do najbardziej uciążliwych produktów procesów metalurgicznych, są materiałem trudnym do składowania i transportu. Ponadto pyły te – w literaturze światowej określane skrótem EAFD (Electric Arc Furnace Dust) stanowią poważny problem ekologiczny. Zawierają one stosunkowo łatwo rozpuszczalne w wodzie związki chemiczne metali ciężkich (Zn, Pb, Cd, Cr). Charakteryzują się niewielką średnicą ziaren i wynikającą z tego dużą podatnością do pylenia. Szlamy (będące uwodnionymi pyłami) nie powodują wtórnego pylenia, są łatwiejsze do transportu, ale podobnie jak pyły, nie nadają się do wykorzystania w procesach technologicznych bez uprzedniego przetworzenia. W procesie przetopu złomu stali w piecu elektrycznym cynk, kadm, ołów i jego związki oraz łatwo lotne chlorki i fluorki zostają odparowane, a następnie wraz z gazami technologicznymi przenoszone do układu odpylającego. Na tej drodze, w wyniku ochładzania oraz oddziaływania utleniającej atmosfery pieca pary metali zostają utlenione. Pyły z ŁPE można więc pod względem strukturalnym traktować jako mieszaninę zawierającą tlenkowe związki Zn, Pb, Cd i Fe z domieszką chlorków i fluorków [1]. W Europie powstaje rocznie około 900 tys. ton pyłów. W Polsce potencjalną masę pyłów stalowniczych szacuje się na około 60 tys. ton [2]. Ograniczeniem pełnego wykorzystania pyłów jest ich zmienny skład chemiczny zależny od dynamiki procesu oraz wysokie koszty wdrażania nowych technologii. Z punktu widzenia kosztów utylizacji i konieczności ich zrównoważenia przez dochody ze sprzedaży produktów procesu, znaczenie przemysłowe mogą mieć pyły z ŁPE zawierające powyżej 15% Zn, w innym wypadku zachodzi konieczność ich wzbogacania [1]. Proces powstawania pyłów z ŁPE Podczas pracy łukowego pieca elektrycznego i konwertora tlenowego powstają znaczne ilości pyłów stalowniczych. Ilość pyłów generowanych w poszczególnych procesach jest silnie zróżnicowana i zależy od rodzaju i jakości materiałów wsadowych, typu urządzeń metalurgicznych i ich nowoczesności (w stalowniach konwertorowych waha się w zakresie 8– 12 kg/t stali, w stalowniach elektrycznych wynosi 12–16 kg/t stali) [3]. Ich skład chemiczny zależy od parametrów procesu, rodzaju stali jaką zamierza się wyprodukować, postaci fizycznej materiałów żużlotwórczych i nawęglających dodawanych do wsadu, sposobu podawania tlenu gazowego, a także od stopnia zawrotu pyłów do procesu stalowniczego. Analiza składu chemicznego pyłów [4] wykazuje wysoką zawartość cynku (szczególnie w pyłach z ŁPE) oraz żelaza – zatem oprócz możliwości odzysku Zn są one interesującym materiałem żelazonośnym (pyły z konwertorów tlenowych zawierają nawet powyżej 60% Fe) [5]. 52 Nowoczesne metody odzysku Zn, Pb i Cd z pyłów ŁPE Problem przerobu pyłów z pieców elektrycznych będzie w najbliższych latach narastał, dlatego istnieje pilna potrzeba opracowania i wdrożenia jak najbardziej efektywnego sposobu ich utylizacji. Technologie przerobu odpadowych materiałów cynkonośnych znajdują się na różnych etapach rozwoju i ogólnie można je podzielić na dwie grupy: procesy hydrometalurgiczne (S.E.R.H, Zintex, Ezinex) oraz procesy pirometalurgiczne (proces przewałowy, Tetronics, Inmetco, Plasmadust) [2]. W grupie metod hydrometalurgicznych w skali światowej została zrealizowana jedynie metoda Ezinex, w grupie metod pirometalurgicznych największe znaczenie praktyczne ma świecie mają obecnie procesy realizowane w piecach obrotowych [1]. Procedura badań własnych Przedmiotem badań był pył pochodzący z łukowego pieca elektrycznego. W piecu tym produkowano stale węglowe oraz niskostopowe. Wsadem był głównie złom stalowy, uzupełniany dodatkami brykietów żelaza bezpośrednio zredukowanego (HBI), surówki lub Synticomu® w ilości nie przekraczającej 20% masy wsadu metalowego dla gatunków, od których wymagany był wyższy poziom czystości metalurgicznej. Skład chemiczny pyłu surowego, użytego w badaniach przedstawiono w tablicy 1. Tablica 1. Skład chemiczny pyłu surowego z łukowych pieców elektrycznych C Mn Fec Fe2+ S P 2,14 2,33 27,03 2,08 0,95 0,106 Zawartość składników, % mas Cr Zn Pb 0,31 21,57 3,98 Cd SiO2 CaO MgO Al2O3 0,074 3,58 3,09 2,76 0,64 Badania przeprowadzono w laboratoryjnym, hermetycznym piecu typu Tammanna z grafitowym elementem grzejnym (rura o średnicy wewnętrznej Ф 56 mm) w atmosferze argonu o ciśnieniu około 0,12 MPa. Schemat stanowiska badawczego przedstawiono na rys. 1. Próbki pyłu o masie około 0,20 kg mieszano z dodatkami węgla – grafitu stanowiącego reduktor, zastosowano tygle molibdenowe. W poszczególnych próbach zastosowano zmienną masę dodatku reduktora węglowego. Uzyskane wyniki badań zestawiono w tablicy 2 i 3. Tablica 2.Wyniki badań nad redukcją pyłów z łukowych pieców elektrycznych Nr prób 1. 2. Skład początkowy pyłu, % mas. Warunki eksperymentu T=1673K,τ=15min, dod.C=1,0% m/m T=1673K,τ=15min, dod.C=0,5% m/m C Mn Fec 2,14 2,33 27,03 0,09 n.o. 0,09 n.o. Fe 2+ S P Cr Zn 2,08 0,95 0,106 0,31 21,57 3,98 0,074 38,90 36,93 1,62 n.o. n.o. 1,39 4,27 n.o. 33,70 33,40 1,43 n.o. n.o. 9,81 3,42 n.o. 53 Pb Cd Tablica 3. Skład chemiczny kondensatu uwolnionego podczas procesu redukcji Nr próbki 1. 2. Zawartość pierwiastków, %mas. Zn Pb 39,06 7,64 41,52 7,46 Cl 13,72 13,01 Wyniki badań i ich interpretacja Analizując skład chemiczny pyłu surowego (przed jego termiczną obróbką) należy zauważyć, że prawie cała ilość zawartego w nim żelaza stanowiła żelazo trójwartościowe Fe3+, z minimalną ilością – około 2% masy pyłu – żelaza dwuwartościowego Fe2+. Zawartość cynku była wysoka– 21,56% mas. co w przeliczeniu na ZnO dało wartość ok. 27% mas. oraz ołowiu ok. 4,0% mas. Znaczące obniżenie stężenia cynku w pyle obserwowano przy wytrzymaniu przy temperaturze co najmniej 1673 K. Przy tej temperaturze zarejestrowano najmniejsze stężenia cynku w pyle, co świadczy o tym, że uległ on odparowaniu. Zaszedł również proces rozkładu franklinitu (ZnO·Fe2O3), a zatem uwolnienia ZnO, który warunkował dalsze odparowanie tego związku. Wydłużenie czasu nie powodowało zmiany stężeń cynku w pyle. Skład chemiczny kondensatu zebranego z zimnych, górnych części pieca zawierał od 39 do 41 % mas. cynku oraz jednocześnie posiadał bardzo wysokie zawartości chloru, którego źródłem były przede wszystkim tworzywa sztuczne grupy PCV oraz powłoki lakiernicze, szczególnie chlorokauczukowe wnoszone ze złomem. Zawartość ołowiu w pyle po procesie uległa zmianie w minimalnym stopniu w porównaniu z zawartością w surowym pyle, nie były to więc warunki właściwe dla odparowania bądź redukcji tlenku ołowiu. Celem usunięcia tego pierwiastka należy zatem zastosować inny sposób postępowania. W wyniku zastosowanego procesu prawie cała zawartość żelaza pozostałego w pyle stanowi żelazo Fe2+. Nastąpiła zatem prawie całkowita redukcja tlenku Fe2O3 do FeO. Źródłem siarki w pyle były przede wszystkim procesy jej usuwania z metalu przy użyciu żużla lub materiał stosowany w charakterze nawęglacza. W warunkach eksperymentu nie zachodziły okoliczności sprzyjające odsiarczaniu pyłu (zawartość siarki po próbach wzrosła w porównaniu do zawartości początkowej). Problemowi temu należy poświęcić dalsze badania, gdyż wykorzystanie na skalę przemysłową pyłów z tak dużą zawartością siarki jest znacznie ograniczone. Literatura: [1] P. Kapias , R. Stelmach, J. Gazda: Rozpoznanie metod odzysku cynku i ołowiu z pyłów powstających w procesie przerobu złomów stali. Rudy i Metale Nieżelazne Nr 6/99. [2] J. Czernecki, E. Stós, J. Czekaj, J. Galicki, J. Jasiński: Technologia przerobu odpadowych materiałów cynkonośnych w procesie przewałowym. Mat. Konf. Z Konf. PAN Kraków 2002. [3] S. Serkowski: Podstawowe operacje technologiczne w utylizacji odpadów metalurgicznych. Hutnik – Wiadomości Hutnicze Nr 4/99. [4] M. Kowalewski: Podstawowe problemy wykorzystania żelazonośnych szlamów i pyłów hutniczych. Hutnik – Wiadomości Hutnicze Nr 4/98. [5] M. Gawron: Cynk w hucie żelaza. Hutnik – Wiadomości Hutnicze Nr 9/99. Opiekun naukowych: Dr hab. inż. Włodzimierz Derda, prof. PC 54 WAHADŁO MAGNETYCZNE Sławomir Mazur Instytut Fizyki, Politechnika Częstochowska Abstract The paper deals with the technical diagram of the magnetic pendulum. All crucial components of the construction, together with all material characteristics were discussed in details. All the presented solution were verified experimentally. 1. Wstęp W pracy przedstawiono schemat techniczny wahadła magnetycznego. Omówiono dokładnie wszystkie ważne elementy konstrukcyjne. Podano również charakterystyki materiałowe istotnych elementów składowych. Wszystkie rozwiązania prezentowane w pracy zostały zweryfikowane eksperymentalnie. 2. Budowa wahadła magnetycznego Wahadło magnetyczne, składa się z dwóch płyt pleksiglasu zamocowanych na czterech podporach wykonanych z rurek miedzianych z trzpieniami mosiężnymi. Dolna część każdej podpory została dodatkowo wyposażona w śrubę regulacyjno-poziomującą. Na rysunku 1 przedstawiono schemat ogólny budowy wahadła magnetycznego. Rys. 1. Wahadło magnetyczne 55 Zamieszczono również tabelę instruktażową. W górnej płycie pleksi wywiercono otwory w których mocuje się zawieszenie Cardana, umożliwiające ruch ramienia wahadła w dowolnym kierunku. Zawieszenie Cardana zostało scharakteryzowane na rysunku 2. Na dolnej płycie pleksi rozmieszczono magnesy neodymowe w osłonach mosiężnych. Układ otworów dolnej płyty pozwala na dobór odpowiedniej konfiguracji geometrycznej magnesów. Charakterystyka płyty dolnej wahadła została przedstawiona na rysunku 3. Ramię wahadła zostało wykonane z rurki miedzianej uzupełnionej elementami mosiężnymi. Na końcu ramienia umocowano pojedynczy magnes neodymowy Szczegółowy opis zamieszczono na rysunku 4. Rys. 2. Zawieszenie Cardana Rys. 3. Płyta dolna wahadła magnetycznego 56 Rys. 4. Ramię wahadła 3. Dobór materiałów W przypadku wahadła magnetycznego należy zwrócić szczególną uwagę na materiały użyte do jego budowy, tak by nie zakłócały one pomiarów. Chodzi tutaj gównie o zaburzenia jakie mogłyby się pojawić w wyniku użycia materiałów stalowych, które w znacznym stopniu przyczyniłyby się do niepowołanego oddziaływania magnesów z materiałami konstrukcyjnymi. W wahadle zastosowano silne magnesy neodymowe-spiekane (NdFeB) w kształcie walca o rozmiarach: (30x5)mm, oznaczenie magnesów: MW30x5/N35. Magnesy neodymowe są obecnie najnowocześniejszymi i najczęściej stosowanymi materiałami magnetycznymi [1]. Proces wytwarzania tych magnesów opiera się na metodach metalurgii proszków, a odpowiednio dzięki zastosowaniu metody prasowania w polu magnetycznym uzyskuje się strukturę anizotropową. Magnesy neodymowe-spiekane, zawdzięczają swoje znakomite właściwości magnetyczne związkowi: Nd 2 Fe14 B . Magnesy oparte na tym związku osiągają wysokie wartości koercji jak również dużą wartość gęstości energii magnetycznej. W porównaniu do magnesów samarowo-kobaltowych cechują się jednak niższym zakresem temperatur pracy (do ok. 80 o C ) a ich właściwości magnetyczne silnie zależą od temperatury. W omawianych magnesach ze względu na zawartość neodymu o silnych skłonnościach do utleniania, należy zastosować powlekanie warstwami antykorozyjnymi. Najczęściej stosowane są powłoki niklowe, cynkowo-niklowe lub cynkowe. Można również powlekać magnesy cienkimi warstewkami złota lub srebra. W tabeli 1. przedstawiono charakterystykę fizyczną magnesów neodymowych-spiekanych. 57 Tabela 1. Podstawowe parametry magnesów neodymowych. Własności Remanencja Koercja Koercja (jHc) (bHc) (Br) Magnetyczne Jednostka Oznaczenie Materiału N35 Gęstość energii (BH)max Max Temperatura Pracy [kGs ] [kOe] [kOe] [ kJ / m 3 ] [MGsOe ] [oC ] 11,7-12,1 Min 10,9 Min 12,0 263-286 33-36 80 W celu wyeliminowania niepożądanych oddziaływań magnetycznych występujących pomiędzy magnesami a pozostałymi elementami konstrukcyjnymi układu należy większość pozostałych elementów wahadła wykonać z mosiądzu, brązu lub miedzi. Szczególnie istotne znaczenie ma to w przypadku elementów mocujących magnesy do konstrukcji. Materiały stalowe (śruby, łożyska) rozmieszczamy w możliwie dużej odległości od magnesów tak by nieznacznie zaburzały ruch wahadła. Płyta dolna i górna wahadła została wykonana z przeźroczystej pleksi (Polimetakrylan metylu). Ma to istotne znaczenie, ponieważ materiał ten nie jest tak kruchy jak szkło a jednocześnie pozwala na swobodną obserwację ruchu wahadła. 4. Wnioski Praca prezentuje schemat techniczny wahadła magnetycznego wykonanego w Zakładzie Fizyki Komputerowej Politechniki Częstochowskiej. W wahadle magnetycznym obserwuje się zjawisko chaosu deterministycznego [2]. Wahadło uzupełnione o układ pomiarowy pozwoli na przeprowadzenie badań eksperymentalnych. Literatura [1] Strona internetowa dystrybutora magnesów P.P.H.U. „Enes”, www.enes.com.pl [2] H.G. Schuster „ Chaos deterministyczny. Wprowadzenie ” , PWN 1993 58 FALE GĘSTOŚCI ŁADUNKU O SYMETRII D, S I ROZSZERZONEJ S Justyna Borek Instytut Fizyki, Politechnika Częstochowska Abstract. We consider charge density waves with symmetry d, s and extended s. Our results suggested that symmetry d is dominant and originates from pure electron-electron interaction. The symmetry s and extended s can be neglected. Wstęp. W prezentowanej publikacji rozważamy hamiltonian opisujący oddziaływanie elektron-elektron i elektron-fonon. Przy odpowiedniej dystrybucji wektora falowego opisuje on fale gęstości ładunku. Fale gęstości ładunku mogą być przyczyną formowania się pseudoszczeliny w stanie normalnym w nadprzewodnikach wysokotemperaturowych [1]. Opierając się na danych eksperymentalnych [2] należy stwierdzić, że pseudoszczelina posiada symetrię typu dx2-y2 W prezentowanym modelu wykażemy, że symetrię d należy powiązać z czystym oddziaływaniem elektron-elektron. Model. Modelowy hamiltonian zapisujemy w następującej formie: Pierwszy człon hamiltonianu (1) opisuje gaz nieoddziaływujących elektronów gdzie εk określa elektronową relację dyspersyjną; εk = −tγ (k) to odpowiednio operator anihilacji (kreacji) elektronu w stanie Blocha o Symbole pędzie k i spinie 6. Czyste kulombowskie oddziaływanie pomiędzy elektronami modeluje drugi człon hamiltonianu (1). Zapisujemy go w następującej formie: Symbol Vijlm określa następujące elementy macierzowe 59 gdzie Oddziaływanie opisane hamiltonianem (3) przedstawiliśmy graficznie na rysunku 1. Rys.1. Diagram oddziaływania kulombowskiego pomiędzy dwoma elektronami Efektywne oddziaływanie elektron-fonon prowadzące do powstania CDW modelujemy hamiltonianem Potencjał parujący VkQ zapisujemy w formie Na rysunku 2 przedstawiliśmy diagram reprezentujący oddziaływanie modelowane hamiltonianem (7). Rys.2. Wymiana wirtualnego fononu pomiędzy elektronami prowadząca do powstania CDW. 60 Opierając się na wprowadzonym modelu łatwo można zauważyć, że hamiltonian elektronowo – fononowy (wzór 7) może indukować fale gęstości ładunku tylko o symetrii s. Hamiltonian elektronowy (wzór 3) ma natomiast dużo bogatszą strukturę. Przeprowadźmy przybliżoną analizę potencjału parującego w hamiltonianie (3) w tym celu wybieramy następującą dystrybucję wskaźników macierzowych Po prostych rachunkach stwierdzamy, że potencjał oddziaływania elektron-elektron można w przybliżeniu zapisać w postaci: gdzie . Z równań 10-13 wynika, iż oddziaływanie elektron-elektron prowadzi do powstania CDW o symetrii d, s i rozszerzonej s. Wnioski. W prezentowanej pracy analizowaliśmy własności hamiltonianu modelującego oddziaływania elektron-elektron i elektron-fonon. W przypadku prostej postaci wektora modulacji Q ≡ (π/a, π/a) omawiany hamiltonian opisuje fale gęstości ładunku. Na podstawie przeprowadzonej analizy stwierdzamy, iż symetria d fal gęstości ładunku związana jest z czystym oddziaływaniem elektron-elektron. Symetria s ma znikome znaczenie z uwagi na przeciwne wkłady wnoszone do hamiltonianu przez oddziaływanie elektron-elektron i elektron-fonon. Fale gęstości ładunku o symetrii rozszerzonej s nie mogą powstawać w przypadku półpełnego pasma. Literatura: [1] R. Szczęśniak, M. Mierzejewski, J. Zieliński: Physica C 335 (2001) 126. [2] A. M. Gabovich, A. I. Voitenko, M. Ausloos: Physics Reports 367 (2002) 583 and 61 references therein. WDRAŻANIE SYSTEMU ZARZĄDZANIA JAKOŚCIĄ ZGODNEGO Z WYMAGANIAMI NORM MIĘDZYNARODOWYCH Ewa Sikora Studenckie Koło Naukowe „INFOMET” Wydział Inżynierii Procesowej, Materiałowej i Fizyki Stosowanej Politechnika Częstochowska Wiele współczesnych przedsiębiorstw zarządza jakością. Koniecznym jest wiec wychwytywanie, sprawdzanie i zakwestionowanie wszystkiego, co tego zagadnienia dotyczy. Jakość jest obecnie głównym „źródłem” sukcesu rynkowego wielu organizacji. Czasopisma biznesowe są zdominowane przez artykuły dotyczące jakości. Wskazuje wiec to na to, ze przechodzimy „jakościową rewolucję”. Wzrasta więc nasza świadomość, że produkty i usługi o wysokiej jakości mogą odgrywać niebagatelną role wobec konkurencji. Dobra jakość pozwala zredukować koszty napraw, zwrotów itp., ale co najważniejsze wpływa na wzrost satysfakcji klientów. Niektórzy kierownicy wierzą, że w dłuższym okresie czasu, jakość jest najważniejszym czynnikiem wpływającym na wynik, jaki uzyskuje przedsiębiorstwo. Tak wiec dobra i usługi muszą być raz po raz udoskonalane, jako że konkurencja tez to robi. Natomiast systemy i normy związane z zachowaniem jakości pomagają nie tylko w walce konkurencyjnej o klienta, ale także zapewniają odpowiednie standardy ochrony środowiska czy obsługi klienta w różnych instytucjach. Czas potrzebny do zbudowania systemu zarządzania jakością zależy od wielkości przedsiębiorstwa i kultury kierowania nim. Część systemów i norm związanych z zachowaniem jakości jest w Polsce obligatoryjna, inne, mimo że nie są obowiązkowe, w praktyce zadecydują o być albo nie być – na silnie konkurencyjnym rynku unijnym. Często sprostanie standardom jakościowym wiąże się ze znacznymi kosztami, pomimo to jakość jest wartością, w którą nie tylko trzeba, ale i warto inwestować. Opiekunowie pracy: Mgr inż. Marek Warzecha Mgr inż. Tomasz Merder 62 WYKORZYSTANIE ARKUSZA KALKULACYJNEGO DO ANALIZY OCEN PRACOWNIKÓW Krzysztof Felikowski Koło naukowe „Plus.Minus” Katedra Zarządzania Produkcją i Logistyki Politechnika Częstochowska Wstęp Mimo niesprzyjającej docenianiu zasobów ludzkich sytuacji na rynku pracy, uważa się, że dotychczasowe traktowanie zasobów ludzkich jako kosztu dla przedsiębiorstwa jest nieproduktywne. Zasoby ludzkie należy traktować jako zasoby posiadające określoną, choć trudno wymierną wartość strategiczną dla firmy. Wartość ta wynika z kumulowanej latami wiedzy i zdobytego w tym czasie praktycznego doświadczenia, która może nawet przesądzić o „ być albo nie być” firmy. Gospodarowanie zasobami ludzkimi jest jednym z obszarów funkcyjnych przedsiębiorstwa, które podobnie jak inne obszary ( np. produkcja, zaopatrzenie, zbyt, finanse) może podlegać komputeryzacji we wszystkich jego dziedzinach. Komputeryzacja rozumiana jest jako wykorzystanie komputera i odpowiednich programów zarówno do realizacji funkcji przetwarzania informacji (wyszukiwanie danych wg różnych kryteriów i przedstawiania ich w systematycznej formie), jak i funkcji analitycznych ( ocenianie wg podanych kryteriów) i decyzyjnych ( decyzje optymalizujące, symulujące i ekspertowe). Komputerowe wspomaganie ma spełniać między innymi następujące role [1]: • przyśpieszać dostęp do informacji • przyśpieszać wykonywanie czynności rutynowych (np. prac obliczeniowych) • ułatwiać i kontrolować procesy podejmowania decyzji • pozwalać na gromadzenie i przechowywanie informacji w ekonomiczny sposób Komputerowe wspomaganie zarządzania zasobami ludzkimi znajduje szerokie zastosowanie w analizie dokonywania ocen pracowników i budowie strategii personalnych. Strategie personalne Jednym ze sposobów konstruowania i wyboru strategii personalnej jest analiza portfelowa personelu ( porfolio analysis). Analiza portfelowa to metoda stosowana w marketingu do określania znaczenia poszczególnych produktów dla firmy. W analogii do analizy portfelowej produktów konstruowane jest personalne portfolio. Zbudowane jest ono na dwóch kryteriach odnoszących się do oceny wyników pracy i posiadanego potencjału rozwojowego[2]. Sporządzenie personalnego portfolio poprzedza ocena pracowników pod kątem wybranych kryteriów. Przykładową analizę portfelową personelu przedstawia rysunek 1. 63 Wyniki pracy Dojne krowy (fachowcy,solidni pracow nicy,tzw. Żywiciele; wysokie wykorzystanie potencjału pracownika przy niskich nakładach) Balasty (pracownicy mało przydatni, niewykorzyst anie potencjału pracownika do rozwoj u przedsiębiorstwa) Gwiazdy (pracownicy obecnie najlepsi i przyszłościowi, opłacalne i nwestowanie w pracownika) Dylematy (tzw. Narybek, problematyczni pracownicy niski poziom “zwrotu”inwestycji w pracownika) Potencjał rozwojowy Rys. 1. Analiza portfelowa personelu. Źródło :opracowanie własne na podstawie [2] Analiza ocen pracowników przy wykorzystaniu arkusza kalkulacyjnego W artykule zostały wykorzystane oceny pracowników dokonane za pomocą skali punktowej. Badania przeprowadzono w jednym z częstochowskich przedsiębiorstw, ocenie poddano 160 pracowników. Ocenie poddano ilość i jakość pracy oraz stosunek do klienta, co obrazowało osiągane wyniki w pracy. Natomiast rozwojowość oceniana była poprzez zdolność pracownika do adoptowania się do zmiennych warunków pracy oraz poprzez samodzielność. Poszczególnym elementom przypisano wagi, różnicując je pod kątem ich znaczenia i wpływu na wybrane kryteria. Wycinek wyników ocen został przedstawiony w tabeli 1. Tabela 1. Fragment ocen pracowników pod kątem osiąganych wyników w pracy i rozwojowości. Badane składowe Wyniki pracy Potencjał rozwojowy Ilość pracy Jakość pracy Stosunek do klienta Samodzielność Zdolność do adptacji 1 4 2 2 3 4 4 3 5 3 4 2 3 3 3 4 4 4 3 3 3 3 3 3 3 4 3 3 3 3 6 3 3 7 3 3 8 4 3 2 3 4 3 3 3 3 4 3 Źródło: opracowanie własne na podstawie [3] Uzyskane wyniki ocen zostały przemnożone przez ustalone wagi w arkuszu kalkulacyjnym Excel: =$C$3*D3, gdzie C3 i D3 to adresy komórek, gdzie znajdują się mnożone wagi ocen i ocena pracownika. 64 Adres komórki, w której znajduje się waga musi być zablokowany (symbolem $), ponieważ w trakcie przeciągania formuły mnożenia na pozostałych pracowników, wartość wagi musi pozostać stała. W tabeli 2 został przedstawiony fragment wyników uzyskanych po przeliczeniu. Tabela 2. Fragment wyników ocen pracowników po przemnożeniu przez ich przez wagi Pracownicy Badane składowe Przypisane wagi 1 2 3 4 5 6 Wyniki pracy Ilość pracy Jakość pracy 0,4 0,4 1,6 1,6 0,8 0,8 1,6 1,2 1,2 1,2 1,2 1,2 1,2 1,2 1,2 1,2 Stosunek do klienta 0,2 0,8 0,8 0,6 0,6 0,6 0,4 0,6 4 2,4 3,4 2,8 3 Suma Potencjał rozwojowy 7 3 3 Samodzielność 0,3 1,2 0,9 0,9 0,9 0,9 0,9 0,9 Zdolność do adaptacji 0,7 2,8 2,1 2,1 2,1 2,1 2,1 2,8 4 3 3 3 3,7 Suma 3 3 Źródło: opracowanie własne Uzyskane wyniki należy zsumować, a następnie przy wykorzystaniu funkcji Excel można określić, do której kategorii zaliczyć poszczególnego pracownika: =jeżeli(warunek; działanie jeżeli spełni się warunek; działanie jeżeli warunek się nie spełnił) Dla uszeregowania ocenianych pracowników w odpowiednich grupach analizy portfelowej, jako wartość graniczną przyjęto 2,5 pkt. Następnie dla określenia dokładnej ilości pracowników w poszczególnych grupach zastosowano następującą funkcję Excel. = Licz. Jeżeli( zakres; kryterium) Częstotliwość występowania Wyniki tych obliczeń przedstawia rysunek 2. 140 129 120 100 80 60 40 13 11 7 Dojne krowy Balasty 20 0 Gwiazdy Znaki zapytania Kategoria Rysunek 2. Liczba pracowników w poszczególnych grupach Źródło: Opracowanie własne 65 Wnioski Jak widać w strukturze przedsiębiorstwa dominują gwiazdy, co dobrze świadczy o zasobach pracowniczych tego przedsiębiorstwa. Należy jednak zaznaczyć, że przedsiębiorstwo to istnieje na lokalnym rynku zaledwie rok, i oceny na których oparta jest przedstawiana analiza mogą być zawyżone. Ponadto sama analiza portfelowa ma kilka wad, wśród których należy wymienić każdorazowe ocenianie pracowników tylko na podstawie dwóch kryteriów, co zaciemnia obraz poszczególnych pracowników oraz trudności w jednoznacznym zaszeregowaniu pracowników do którejś kategorii w sytuacji, gdy plasują się oni na granicach tych kategorii. W analizie portfelowej personelu z powodzeniem można zastosować podstawowe funkcje arkusza kalkulacyjnego Excel. Ułatwia on dokonywanie obliczeń i sporządzanie wykresów, które obrazują sytuację przedsiębiorstwa. Można go zaliczyć do podstawowych narzędzi wspomagających zarządzanie przedsiębiorstwem. Literatura: 1. Lipka A.: Uwarunkowania komputerowego wspomagania gospodarowania zasobami ludzkimi w przedsiębiorstwie. Katowice: Wydawnictwo Akademii Ekonomicznej im. Oskara Lanego, 1996 2. Lipka A.: Strategie personalne firmy. Kraków: Wydawnictwo Profesjonalnej Szkoły Biznesu, 2000 3. Materiały z badanego przedsiębiorstwa 4. Danowski B.: MS Excel 2002/XP. Gliwice: Wydawnictwo Helion,2001 66 ANALIZA SWOT JAKO METODA BADANIA OTOCZENIA PRZEDSIĘBIORSTWA Bartłomiej Motyl Koło Naukowe „Plus.Minus” Katedra Zarządzania Produkcją i Logistyki Politechnika Częstochowska Wstęp Analiza SWOT jest jedną z prostszych i najczęściej stosowanych technik analitycznych. Nazwa jest akronimem angielskich słów: Strengths (silne strony), Weaknesses (słabe strony), Opportunities (szanse), Threats (zagrożenia). Metoda ta służy do oceny wewnętrznych i zewnętrznych czynników warunkujących rozwój organizacji. Podstawową dyrektywą wynikającą z analizy SWOT jest: wykorzystać możliwości i szanse, przezwyciężyć słabości, rozwijać mocne strony i wykorzystywać atuty oraz unikać zagrożeń. Efektem analizy SWOT jest zestaw dobrze zdefiniowanych czynników mających wpływ na stan organizacji. Na ich podstawie zarządzający mogą opracować i wybrać strategię działania. Prawidłowo przeprowadzona analiza SWOT powinna skupiać się na ograniczeniu lub wyeliminowaniu słabych stron organizacji, oraz na pielęgnowaniu dostrzeżonych jej silnych elementów. Jej prostota zapewnia w miarę przejrzystą diagnozę stanu obecnego, oraz umożliwia wskazanie dalszych kierunków rozwoju. Cel analizy SWOT w nowopowstającym przedsięwzięciu Chcąc stworzyć nowe przedsiębiorstwo i wprowadzić je z powodzeniem na rynek, należy zbadać szereg czynników, w tym przede wszystkim szanse i zagrożenia oraz ocenić opłacalność przedsięwzięcia. Do tego rodzaju badań najodpowiedniejszą metodą będzie analiza SWOT. Pierwszym krokiem analizy SWOT jest ustalenie stanu początkowego – obecnego, w jakim znajduje się osoba, bądź też osoby chcące stworzyć coś nowego, określić wizję przedsięwzięcia oraz sposób w jaki można osiągnąć zamierzony cel. Analiza SWOT opiera się na badaniu dwóch grup czynników: wewnętrznych i zewnętrznych. Każda grupa rozpatrywana jest pod kątem pozytywnego i negatywnego wpływu na organizacje. Z zestawienia szans i zagrożeń buduje się najczęściej tablice korelacji; z jednej strony, szansę i zagrożenia, a z drugiej – silne i słabe strony firmy [1]. Schemat analizy SWOT został przedstawiony na rys.1. Analiza SWOT polega na zidentyfikowaniu wymienionych czterech grup czynników, opisaniu ich wpływu na rozwój organizacji, a także na ocenie możliwości osłabiania lub wzmacniania ich wpływu. Prowadzi to do wyboru strategii rozwoju organizacji. Dla przedsiębiorstwa nieistniejącego silne strony są szansami, tak samo jak zagrożenia są słabymi stronami. Analiza SWOT została przeprowadzona dla projektu przedsiębiorstwa mającego zaistnieć na rynku częstochowskim. Projektem przedsiębiorstwa zajmują się studenci, posiadający wiedzę teoretyczną z zakresu zarządzania i marketingu. Celem tego przedsięwzięcia jest utworzenie konkurencyjnej linii transportu osobowego na trasie Częstochowa – Prusicko, pod egidą prywatnego przedsiębiorstwa, działającego z powodzeniem na innym rynku. Takie rozwiązanie umożliwi stworzenie spółki „córki”. 67 Rys.1. Schemat analizy SWOT. Źródło: opracowanie na podstawie [1] Mocne strony Pierwszym etapem analizy było określenie mocnych stron zarówno wewnątrz projektowanego przedsiębiorstwa oraz istniejących szans w otoczeniu. Zestawienie pozytywnych elementów zostało przedstawione w tabeli 1. Tabela 1.Zestawienie mocnych stron dla projektowanego przedsiębiorstwa. Czynniki wewnętrzne Czynniki zewnętrzne • potencjał ludzki • wejście na rynek jako spółka „córka” • szybkość uczenia się • doświadczenie spółki „matki” • wiedza teoretyczna • fundusze strukturalne unii europejskiej • niskie koszty administracji • krótkie linie • niskie koszty eksploatacyjne • wyższa częstotliwość przejazdów • wyższa jakość usług • złamanie dominacji PKS • większa elastyczność • pomyślność podobnych przedsięwzięć Źródło: Opracowanie własne Najważniejszą i zarazem najbardziej wartościową rzeczą, w jakimkolwiek przedsiębiorstwie, jest potencjał ludzki. W analizowanym przedsięwzięciu, są to młodzi ludzie, studenci, o bardzo szerokich zainteresowaniach, pragnący skonfrontować teorię z praktyką oraz mający na celu poprawę swojego standardu życia. W związku z powyższym posiadają motywację, która jest determinantem i odgrywa istotną rolę w drodze do sukcesu. Program studiów wprowadził takie przedmioty jak: bankowość, rachunkowość, podstawy prawa, zarządzanie i marketing, które z całą pewnością pomogą w prowadzeniu działalności gospodarczej. Przedmioty te są również przedmiotem egzaminów państwowych umożliwiających otrzymanie licencji na przewozy osób w kraju i zagranicą [2]. Kwestia finansowanie projektu w dużej mierze opierać się może o fundusze Unii Europejskiej, które pozwalają, ubiegać się o dofinansowanie, bądź też refundację. Ponadto młodzi przedsiębiorcy mogą skorzystać z pomocy instytucji wspierających przedsiębiorczość. Wejście na rynek jako spółka „córka” pozwoli bazować na doświadczeniu spółki „matki”. Zaplecze techniczne oraz infrastruktura organizacyjna, z założenia, opierać się będzie o spółkę „matkę”, która jest dobrze prosperującym i efektywnym przedsiębiorstwem na rynku. Podstawą wszelkich działań będą odpowiednie umowy cywilno-prawne. Dzięki takiemu posunięciu, utworzy się niezbyt rozbudowana infrastruktura administracyjna, co pozwoli utrzymać niskie koszty związane z prowadzeniem działalności gospodarczej. Tworząc krótkie linie, mające na uwadze dobro mniejszej grupy potencjalnych klientów, będzie można uzyskać wyższą częstotliwość przejazdów, co podniesie komfort i jakość usługi. W takim wymiarze przedsięwzięcie ma szanse rozwoju i możliwości większej elastyczności w stosunku do 68 potrzeb klientów. Wiedza z zakresu zarządzania przedsiębiorstwem i marketingu, uzupełniana zdobywanym, na bieżąco doświadczeniem, pozwoli spełniać coraz wyższe oczekiwania klientów. Słabe strony Kolejnym krokiem analizy SWOT jest określenie i ocenienie zagrożeń dla nowego przedsiębiorstwa. Ich zestawienie dla rozpatrywanego przedsięwzięcia zostało przedstawione w tabeli 2. Tabela 2.Zestawienie zagrożeń dla projektowanego przedsiębiorstwa Czynniki zewnętrzne Czynniki wewnętrzne • konkurencja PKS • brak zdolności kredytowych • doświadczenie konkurencji • brak środków własnych • nieufność ludzi do nowego przedsięwzięcia • brak koncesji • biurokracja urzędów • zerwanie umów przez spółkę „matkę” Źródło: Opracowanie własne. Największym zagrożeniem dla omawianego przedsięwzięcia jest konkurencja ze strony PKS. Duże przedsiębiorstwa takie jak PKS działające na rynku przewozu osób bez większego problemu mogą przejąć, obsługiwaną przez małą firmę, linię. Posiadają odpowiednią bazę techniczną i są w miarę dobrze zarządzane – PKS w Częstochowie nie przyniósł strat. Inną kwestią pozostaje dochodowość linii czy też po prostu „panowanie” na lokalnym rynku. Potencjalni klienci nie będą posiadać podstaw, aby udzielić kredytu zaufania nowemu dostawcy usług. Będzie to ktoś nowy, niesprawdzony. Pojawią się obiekcje, co do punktualności i stałości dostarczonej usługi, w tym przypadku przewozu. Studenci nie posiadają materialnego majątku i co za tym idzie, zdolności kredytowej, która jest podstawą do udzielenia jakiegokolwiek kredytu. Mimo iż większość funduszy pożyczkowych oferuje znacznie dogodniejsze warunki niż sektor bankowy problemem są poręczyciele. Ponadto wielkość uzyskanych środków z funduszu niejednokrotnie nie pokrywa się z zapotrzebowaniem, a uzależnione jest od wypłacalności poręczycieli oraz pożyczkobiorcy. W sytuacji tej najdogodniejszym wyjściem, dla osoby chcącej uzyskać środki na sfinansowanie swojego projektu, są Fundusze Strukturalne Unii Europejskiej. Ogromną bolączką dla przyszłego przedsiębiorcy są również urzędnicy każdego szczebla, przy rejestracji nowego przedsiębiorstwa. Każdy urząd to oczekiwanie na następne dokumenty, kolejne 14 dni roboczych. Istotnym elementem w analizowanym przedsięwzięciu będą umowy ze spółką „matką”. Może się zdarzyć tak, że „matka” nie podpisze umów, mimo wcześniejszych zapewnień, bądź też nie dotrzyma zawartych w nich warunków. Wnioski Wyniki analizy SWOT dają obraz mówiący o powodzeniu bądź też porażce przedsięwzięcia. Przyszli przedsiębiorcy, chcąc zaistnieć na rynku muszą pokonać swojego rywala, jakim jest PKS. Z mojej oceny wynika, iż powodzenie projektu zależy głównie od rynku, w którym została odnaleziona nisza jak i od efektywnego wykorzystania czynnika ludzkiego, jakim niewątpliwie są studenci, posiadający znaczącą wiedzę teoretyczną. Mając za sobą prosperującą i dobrze zarządzaną spółkę „matkę”, mogą skoncentrować się na celu marketingowym. Oferowanie na konkurencyjnym rynku produktu lub usługi, zawsze związane jest z koniecznością przekonania do oferty potencjalnych klientów. Należy przy tym myśleć o produktach i usługach w kategoriach ich wysokiej użyteczności dla klienta. Również 69 należy spojrzeć na specyficzne i konkretne problemy, które produkt lub usługa może rozwiązać. Przesłanką do sukcesu rynkowego może być myślenie o ofercie w kategoriach, w jakich postrzega ją nasz klient, który ma konkretny problem do rozwiązania. Klienci zwykle zainteresują się produktem lub usługą, gdy będą przekonani, że oferta może udoskonalić lub rozwiązać ich konkretny problem, z którym się borykają. 1. 2. 3. Literatura: Materiały strony internetowej www.infoport.pl. Materiały Wydziału Komunikacji i Infrastruktury Urzędu Starostwa w Częstochowie. H. Szulce: „Czynniki wyznaczające poziom konkurencji na regionalnym rynku”; Zeszyty naukowe nr 1: „Przesłanki i narzędzia podejmowania decyzji marketingowych”; Wydawnictwo Akademii Ekonomicznej w Poznaniu; Poznań 2000 4. P. Kingston: „Wielka księga marketingu”; Wydawnictwo. Signum, Kraków 1992 5. B. Dobiegała-Korona: „Business Plan w przedsiębiorstwie”, Wydawnictwo Infor, Warszawa 1996 70 MOŻLIWOŚCI DOSTOSOWANIA KWALIFIKACJI BEZROBOTNYCH DO WYMAGAŃ PRACODAWCÓW W CZĘSTOCHOWIE Ewa Cyganek Koło Naukowe PLUS.MINUS Katedra Zarządzania Produkcją i Logistyki Politechnika Częstochowska Wstęp Zjawisko bezrobocia jest jednym z poważnych problemów społecznych. Ze stopą bezrobocia 18,6% (styczeń 2004) lokujemy się w europejskiej czołówce. W krajach Unii Europejskiej w latach 1996-2003 liczba ludzi bezrobotnych spadła o 2,6pkt. procentowych (z 10,8 do 8,2). Bezrobocie maleje też we wszystkich krajach wchodzących do UE. Tylko w Polsce w ostatnich 7 latach bezrobocie zwiększyło się o 5 pkt. proc. Według raportu Komisji Europejskiej bez pracy jest aż 42 % Polaków w wieku 18-25. Średnia Unijna to 15%[1]. Podobnie jest również w Częstochowie. Na koniec 2003r. było 18410 osób bezrobotnych. Poruszając temat rynku pracy w Częstochowie nie należy zapominać o jednym z najważniejszych pracodawców jakim jest Huta Częstochowa S.A. Problemy ekonomicznofinansowe tego podstawowego pracodawcy znajdują swoje odzwierciedlenie w sytuacji na rynku pracy. Fakt postawienia Huty Częstochowa S.A. w stan upadłości spowodował, że Częstochowa została uznana za obszar o szczególnym zagrożeniu bezrobociem. W Częstochowie realizowanych jest wiele programów mających na celu aktywne zwalczanie bezrobocia. Jednakże najbardziej racjonalnym projektem wydaje się dostosowanie kwalifikacji potencjalnych pracowników do wymogów stawianych przez pracodawców. Wymagania stawiane przez pracodawców Obecna sytuacja na polskim rynku pracy skłania pracodawców do poszukiwania tzw. „idealnych kandydatów”, gdyż dzięki nim przedsiębiorstwo będzie odnosiło sukcesy. Pracodawcy poszukują dziś pracowników elastycznych, mobilnych i samodzielnych, którzy posiadają dostateczną wiedzę teoretyczną i w czasie studiów nabyli doświadczenie zawodowe, którzy potrafili radzić sobie finansowo, godzić okres nauki z okresem pracy. Zestawienie oczekiwań pracodawców w stosunku do przyszłych pracowników przedstawia tabela nr.1. Tabela 1. Wymagania stawiane potencjalnym pracownikom. Dane ogólnopolskie Wyniki badań własnych umiejętności zawodowe w tym bardzo dobra znajomość języków obcych ; umiejętność pracy w zespole umiejętność efektywnego komunikowania się umiejętności zawodowe: odpowiednie wykształcenie ; odpowiednie kwalifikacje ; znajomość języków obcych ; umiejętność obsługi komputera ; umiejętność pracy w zespole komunikatywność łatwość w nawiązywaniu kontaktów międzyludzkich otwartość na klienta 71 kreatywność oraz umiejętność znajdowania niekonwencjonalnych rozwiązań problemów kreatywność inicjatywy i umiejętności realizowania postawionych sobie celów własna inicjatywa głębokiej motywacji oraz gotowości do przyjęcia odpowiedzialności zaangażowanie w pracy umiejętność podejmowania efektywnych decyzji, oraz myślenia koncepcyjnego i analitycznego umiejętność pracy w zespole umiejętność zarządzania własnym czasem umiejętność szybkiego uczenia się umiejętności analityczne umiejętność pracy w zespole asertywność solidność, sumienność kultura osobista Źródło : opracowanie własne na podstawie [2] i [5]. W tabeli tej przedstawiono wymagania pracodawców wg badań ogólnopolskich, a także wyniki ankiet przeprowadzonych w Częstochowie w okresie od lutego do marca 2004 roku. Porównując dane zawarte w tabeli 1 można stwierdzić , że wymagania pracodawców w Częstochowie są zbieżne z wymaganiami pracodawców ogólnopolskich. Przede wszystkim pracodawcy wymagają odpowiednich i rzetelnych umiejętności zawodowych. Poza tym pracodawcy w Częstochowie oczekują od przyszłego pracownika: otwartości na klienta, samodzielności, solidności i zaangażowania w pracę. Analiza kursów i szkoleń przeprowadzonych w Częstochowie Jak wynika z tabeli 1 najważniejsze na rynku pracy są odpowiednie umiejętności zawodowe. Jedna z możliwości ich nabycia lub też pogłębienia są kursy i szkolenia organizowane dla bezrobotnych. Kursy doskonalenia zawodowego na terenie miasta Częstochowy organizowane są przez Powiatowy Urząd Pracy, Ochotnicze Hufce Pracy oraz Miejski Ośrodek Wspierania Przedsiębiorczości (MOWP). Zestawienie przeprowadzonych kursów / szkoleń w 2003 roku przedstawia tabela numer 2. Tabela 2. Zestawienie kursów / szkoleń w 2003 roku. URZĄD PRACY OHP Nazwa kursu/szkolenia Liczba osób Nazwa kursu/szkolenia Obsługa komputera z programami użytkowymi 40 Obsługa komputera klasy IBM PC Obsługa AutoCad 2 Obsługa pakietu projektowo graficznego AutoCad Księgowość wspomagana komputerem Liczba osób 29 3 Księgowość komputerowa 11 Kurs przedsiębiorczości 60 Podatkowa księga przychodów i rozchodów 1 Podstawy przedsiębiorczości " mój własny biznes " Księga przychodów i rozchodów 7 Obsługa komputera + kasy fiskalnej 99 Obsługa komputera i kas fiskalnych 89 Kurs obsługi kasy fiskalnej Palacz CO 59 5 Obsługa kas fiskalnych Palacz kotłów CO 80 14 139 1 Magazynier 40 Zaawansowany pakiet projektowo-biurowy 40 Obsługa żurawi samojezdnych 5 51 Kurs dokształcający kierowców przewożących osoby lub rzeczy Zarządzanie nieruchomościami i pośrednictwo w obrocie nieruch. Weryfikacje spawalnicze 22 5 Obsługa kas fiskalnych wspomaganych komputerem Obsługa komputera z pakietem magazynhurtownia-sprzedaż Stolarz 8 Obsługa systemu zarządzania produkcją 5 Pracownik ochrony 6 Zarządzanie systemem Linux 2 72 12 10 Operator sprzętu ciężkiego 5 Handlowiec- Sprzedawca 24 Prawo jazdy kat. C i D 62 Szwacz 15 Spawalniczy 8 Firma symulacyjna płytkarz-posadzkarz układanie paneli ściennych i podłogowych 10 Obsługa wózka widłowego Przewóz materiałów niebezpiecznych Obsługa programu Adobe Fhoto- Shop 29 35 2 Kurs uprawnień elektro- energetycznych SEP 33 Obsługi stacji paliw 1 Kurs ręcznego przepalacza gazowo-tlenowego 2 Kurs drwali operatorów pilarek 3 Kurs dokształcający kierowców przewożących osoby lub rzeczy Fryzjerski 35 Sprzedawca usług 5 Telekomunikacyjny 12 Kroju i szycia 18 Kurs kadrowo płacowy 12 Magazynier 29 1 Kurs bukieciarstwa 12 Sekretarka asystentka dyrektora 5 Kurs gosposi opiekunki 15 Warsztaty z zakresu pośrednictwa nieruch. 1 Dla pracowników służb BHP 1 Kosztorysowania robót budowlanych 1 Pielęgniarstwo rodzinne dla położnych 5 Kurs dla pielęgniarek i położnych po 5- letniej przerwie w wykonywaniu zawodu SUMA: 8 703 SUMA: 531 SUMA OGÓŁEM:1234 Źródło: opracowanie własne na podstawie [3] Jak wynika z zestawienia w tabeli 2 z oferowanych kursów i szkoleń w 2003 roku skorzystało 1234 osób. Największą popularnością cieszą się takie kursy jak obsługa komputera i kas fiskalnych, kursy przedsiębiorczości oraz kursy na prawo jazdy kategorii C i D. Natomiast niewielkie zainteresowanie wzbudzają kursy obsługi stacji paliw, fryzjerskie, dla pracowników służb BHP (uczestniczyło w nich tylko po 1 osobie). Jeśli chodzi o warsztaty z zakresu pośrednictwa nieruchomościami i kursy kosztorysowania robót budowlanych nie dają one pełnego prawa do wykonywania zawodu ponieważ muszą one być potwierdzone egzaminem państwowym. Należy, więc zastanowić się nad sensownością organizowania tego typu kursów. Zestawienie sześciu najbardziej popularnych kursów w UP i OHP zostało przedstawione na rysunku 1. W tabeli 2 nie zostały ujęte kursy i szkolenia przeprowadzone przez MOWP ze względu na ich niewielką liczbę. Jest to spowodowane faktem, iż głównym przedsięwzięciem realizowanym przez MOWP w ciągu ostatnich 2 lat było prowadzenie seminariów, konferencji i prelekcji poświęconych tematyce MSP , oraz realizacja programu edukacyjnego „ Przedsiębiorczość szansą dla Ciebie”. W 2003 roku MOWP przeprowadził szkolenia w których wzięło udział 990 osób, wśród których znalazły się osoby bezrobotne, rozpoczynające działalność gospodarczą, przedsiębiorstwa działające na rynku w tym z sektora MSP i inni (uczniowie, studenci, absolwenci). 73 `Kursy UP 1. obsługa komputera + kasy fiskalnej 2. prawo jazdy kat. C i D 3. kurs przedsiębiorczości 4. kursy obsługi kasy fiskalnej 5. magazynier obsługa komputera z programami użytkowymi 120 liczba uczestników 100 99 80 62 60 59 60 40 40 5 6 40 20 0 1 2 3 4 nazw kursu 160 liczba uczestników 140 139 120 89 100 80 80 51 60 40 40 29 20 0 A B C D E F nazwa kurs u Kursy OHP A. podstawy przedsiębiorczości „Mój własny biznes” B. obsługa komputera i kasy fiskalnej C. obsługa kas fiskalnych D. obsługa kas fiskalnych wspomaganych komputerem E. zaawansowany pakiet projektowo – biurowy Rys.1.Zestawienie najbardziej popularnych kursów 2003 r. Źródło: opracowanie własne na podstawie [3] Podsumowanie Analizując zebrane dane można stwierdzić, że: Najbardziej racjonalnym projektem zwalczania bezrobocia jest dostosowanie kwalifikacji potencjalnych pracowników do wymogów stawianych przez pracodawców; Posiadanie przez pracowników takich cech jak kreatywność, mobilność, samodzielność będzie w przyszłości gwarantem powodzenia; Zastąpienie lub wycofanie kursów niepopularnych, kursami np. języków obcych bądź kursami adekwatnymi do wymogów rynku pracy; Zdolność utrzymania się na rynku pracy będą miały tylko te osoby, które błyskawicznie zareagują na dokonujące się zmiany-kształcenie ustawiczne; Literatura: 1 Newsweek Polska 43/2003; 2 Informator Praca – edycja 2004 3 Dane Powiatowego Urzędu Pracy i Ochotniczego Hufca Pracy w Częstochowie 4 Dane Miejskiego Ośrodka Wspieranie Przedsiębiorczości 5 Badania własne - ankieta 74 REMONT I ZABEZPIECZENIE ANTYKOROZYJNE ZABYTKOWEGO KOŁA WODNEGO Anna Balt Koło Naukowe „Piecowników” Katedra Pieców Przemysłowych i Ochrony Środowiska Politechnika Częstochowska Abstrakt Największy zespół cennych reliktów Zagłębia Staropolskiego zlokalizowany jest w Muzeum Zagłębia Staropolskiego w Sielpii Wielkiej. Żelazne koło wodne w Muzeum Techniki jest klasycznym przykładem koła, które zaopatrywało zakład w energię. W Polsce jest to jedyne koło takiej wielkości i trzecie w świecie, które zachowało się do dziś. Koło wodne z wyjątkiem jego nadzwyczajnej konstrukcji stanowi autentyczne dzieło sztuki. W pracy omówiono remont tego koła wodnego. Remont został podjęty w roku 2003 przez Koło Naukowe „Piecowników” Politechniki Częstochowskiej. 1. Wstęp Koło wodne wynaleziono prawdopodobnie na przełomie II i I w. p.n.e. w Azji Mniejszej. W Polsce koło wodne w kuźnicach zaczęto wykorzystywać na przełomie XII i XIII w. [1, 2]. Było to związane z osiedleniem się na ziemiach polskich Cystersów i uruchomieniem w okolicy Wąchocka, nad rzeką Kamienną, kuźnic produkujących żelazo. Znane są trzy konstrukcje kół wodnych (rys.1): nasiębierne (A), śródsiębierne (B), podsiębierne (C). Rys.1 Rodzaje kół wodnych a-dopływ wody b-koło wodne c-odpływ wody 75 Żelazne koło wodne w Muzeum Techniki w Sielpi (rys.2.) jest klasycznym przykładem koła śrudsiębiernego. Pod względem rozmiarów to jedyne w Polsce, a trzecie w świecie. Rys.2 Koło wodne w Muzeum Techniki w Sielpi D=6 m, P .50 kW 2. Historia koła wodnego Jednym z większych zakładów hutniczych na terenie Zagłębia Staropolskiego był zakład w Sielpi Wielkiej, który od roku 1934 stanowi Muzeum Zagłębia Staropolskiego i jest Oddziałem Muzeum Techniki NOT w Warszawie. Fabryka Sielpiańska powstała 1842 roku pod nazwą „Walcowna i Pudlingarna" i była jednym z ogniw Przemysłowego Zagłębia Staropolskiego zlokalizowanego wokół Gór Świętokrzyskich. Była ona wyposażona w 3 piece pudlarskie i 2 walcarki z piecami grzewczymi. Profil produkcyjny zakładu dostosowany był do potrzeb rolniczego regionu. Umożliwiał wykonywanie z półproduktów walcowni: okuć wozów transportowych i chłopskich, produkcję narzędzi rolniczych, gospodarskich itd. Energię mechaniczną dostarczały dwa ogromne koła wodne, zasilane ze specjalnie zbudowanego systemu dwóch zbiorników istniejących do dziś. Koło wodne, unikat w skali światowej, zostało w latach 1970 – 1981 wyremontowane przez studentów Politechniki. W latach 1984 – 2003 koło nie było remontowane. Czas ten w zakresie stanu technicznego koła okazał się czasem destrukcji. Brak remontów, jego częste i długotrwałe uruchomienia oraz postępujące „zanurzenie” w stojącej wodzie zrobiły swoje. Wstępna diagnostyka koła wykazała, że bez wykonania remontu koło skazane jest na zniszczenie niezależnie, czy będzie uruchamiane, czy też nie. Jeżeli będzie uruchamiane – zginie śmiercią „mechaniczną”. Ponieważ wiele śrub, nitów i blach uległo zużyciu w czasie eksploatacji, to dalsze niszczenie będzie następować w postępie geometrycznym. Jeżeli koło 76 nie będzie uruchamiane – zginie śmiercią „chemiczną”. Elementy koła znajdujące się w wodzie ulegają widocznej korozji. Szczegółowej diagnostyki, remontu i zabezpieczenia antykorozyjnego podjęło się Koło Naukowe „Piecowników” na wniosek Muzeum Techniki NOT w Warszawie. 3. Diagnostyka, remont i zabezpieczenie antykorozyjne koła Diagnostykę techniczną koła rozpoczęto od wykonania rysunku technicznego, fragment którego zamieszczono na rys.3. Rys. 3 Szczegóły konstrukcyjne koła 1-element wieńca koła; 2 -listwa krańcowa do mocowania karczówki; 3-karczówka; 4,6- śruba L; 5-listwa wzmacniająca; 7- listwa środkowa do mocowania karczówek: 8- łącznik elementów tarczy koła; 9- listwa wzmacniająca karczówkę; 10- szprycha. Na tegorocznym obozie poza pełną diagnostyką techniczną wykonano częściowy remont koła. Szczegółowy wykaz wymienionych elementów zamieszczono w tabeli 1. Tabela 1Wykaz elementów wymienionych i uzupełnionych w kole wodnym. Lp. Nr karczówki Wymieniony element 1. 1 Wymieniono 7 śrub 2. 2 Wymieniono 4 śruby i 1 śrubę L 3. 3 Wymieniono ½ karczówki, listwę wzmacniającą, 3 śruby L, 17 śrub 4. 4 Wymieniono 6 śrub 5. 5 Wymieniono 2 śruby 6. 8 Wymieniono 2 śruby 7. 9 Wymieniono 1 śrubę 8. 10 Wymieniono 2 śruby 9. 11 Wymieniono 4 śruby 10. 12 Wymieniono 1 śrubę 11. 13 Wymieniono 3 śruby 12. 16 Wymieniono 2 śruby L 13. 17 Wymieniono całą karczówkę, 2 listwy, 2 śruby L, 22 śruby 14. 57 Wymieniono 6 śrub 15. 59 Wymieniono 7 śrub 16. 60 Wymieniono 4 śruby L – śruby rozporowe, mocujące karczówki 77 Prace przy remoncie koła są niezwykle uciążliwe i czasochłonne. Przykładowo dla wymiany jednej karczówki należy: wyciąć kilkanaście starych śrub, usunąć kilkanaście starych nitów, usunąć starą karczówkę, wykonać w nowej karczówce ponad 20 otworów na śruby, dopasować nową karczówkę w kole, wykonać otwory w listwie wzmacniającej, uzupełnić 2 lub 3 śruby L, uzupełnić ponad 20 innych śrub. Wykonanie wielu z tych prac było niezwykle trudne. Niemożliwe było mechaniczne usunięcie nitów mocujących starą karczówkę do poszycia koła. Dla wykonania tych prac niezbędny był udział pracownika z uprawnieniami do cięcia gazowego oraz zabezpieczenie palnika gazowego i butli gazowej. Uzupełnienia karczówek, listew, śrub L i pozostałych śrub wykonano w ten sposób, aby wzmocnić koło na całym obwodzie. Uzupełniono też wiele śrub „tymczasowo”. Śruby te mają zadanie podtrzymywać i wzmacniać karczówki oraz listwy do czasu ich wymiany lub remontu. Tegoroczne prace spowodowały, że można odnieść wzrokowe i słuchowe wrażenie o dobrym stanie koła. 4. Wnioski Na podstawie przebiegu wykonanych prac przy kole można sformułować następujące wnioski: 1. Koło wodne, unikalny zabytek polskiej myśli technicznej, powinno bezwzględnie podlegać ciągłym remontom i przeglądom. 2. Remont koła wymaga niewielkich nakładów finansowych i bardzo dużych nakładów pracy ludzkiej. 3. Możliwe jest wykonanie całkowitego remontu koła w okresie 2 lat (2 obozów). 4. Koło, do czasu zakończenia remontu, powinno być eksploatowane w ograniczonym zakresie. 5. Dla zmniejszenia chemicznej degradacji koła należy okresowo zmieniać jego położenie (obracać o 90 lub 180o). Remont koła prowadzono przy merytorycznym nadzorze pracowników Muzeum Techniki NOT w Warszawie. Literatura 1.K. Dorcz, Koło wodne. Końskie 2001 r. 2.A. Bocheński, Przemysł Polski w dawnych wiekach. Warszawa 1984 r. 3.F. Szwagrzyk, S. Knapik, A. Saładziak, 2000 lat hutnictwa żelaza na ziemiach polskich. Śląsk, Katowice 1976 r. Opiekun naukowy Dr hab. Inż. Marian Kieloch 78 REKONSRUKCJA PIECA PUDLINGOWEGO Monika Dąbrowska Koło Naukowe „Piecowników” Katedra Pieców Przemysłowych i Ochrony Środowiska Politechnika Częstochowska Abstrakt W 1784 roku Anglik-Henry Cort wynalazł nową metodę świeżenia surówki. Obróbka metodą Corta odbywała się w tzw. piecu odbłyskowym (pudlarskim). Istotą świeżenia tym sposobem było oczyszczanie płynnej surówki za pomocą utleniania. Piece pudlarskie wprowadzono na ziemiach polskich w roku 1832.W roku 2003 podjęto rekonstrukcję takiego pieca w Muzeum Zagłębia Staropolskiego w Sielpi Wielkiej. 1.Wstęp. W 1784 roku Anglik-Henry Cort wynalazł nową metodę świeżenia surówki. Obróbka metodą Corta (rys. 1) odbywała się w tzw. piecu odbłyskowym (pudlarskim). Rys.1. Schemat pieca odbłyskowego (pudlarskiego). Istotą świeżenia tym sposobem było oczyszczanie płynnej surówki za pomocą utleniania. Zastosowanie procesu pudlingowego spowodowało: - zastąpienie węgla drzewnego we fryszerkach drewnem lub węglem kamiennym; - kilkakrotne zwiększenie wydajności pieca, - zdecydowane zmniejszenie strat Fe. 2.Piece pudlingowe w Sielpii. Można przyjąć, że piece pudlingowe w Sielpii wybudowano w latach 1840-1842 i w pierwszym okresie były opalane suszonym drewnem. Drewno jako paliwo do opalania pudlingów stosowano do roku 1844. W tym roku inżynier Girard przebudował paleniska pieców na węgiel kamienny. 79 Podczas II Wojny Światowej piece wraz z całym wyposażeniem Zakładu zostały całkowicie zniszczone. Jedynymi śladami pozostałymi po piecach okazały się fragmenty kamiennych fundamentów. Na podstawie pracy [1] można przyjąć, że w Sielpii pracowały 3 piece. Znane są również opracowania mówiące o pracy 6 pieców. W opracowaniu z roku 1841 [2] czytamy: „Pudlingarnia składać się będzie z 6 pieców płomiennych pudlingowych i 6 płomiennych wygrzewczych czyli szwejsowych, a między nimi wielki młot kolbowy poruszany siłą wody, i nożyce.” 3.Rekonstrukcja pieca pudlingowego. Pierwsze prace nad rekonstrukcją pieca pudlingowego pracownicy i studenci naszego Wydziału podjęli na przełomie lat siedemdziesiątych i osiemdziesiątych. W latach 1979-1985 wykonano inwentaryzację dwóch fundamentów pieców. Na jej podstawie, oraz znanych szkiców i rysunków wykonano dokumentację techniczną pieca. W roku 1988 odbudowano fundament pieca oraz podstawę komina. Do prac związanych z rekonstrukcją powrócono w roku 2003. Prace te miały na celu: - inwentaryzację istniejących elementów i materiałów do budowy pieca, - specyfikację (na podstawie projektu pieca) elementów i materiałów niezbędnych do budowy pieca, - wykonanie specyfikacji brakujących elementów i materiałów, - wykonanie brakujących rysunków, - szacunkowe określenie kosztów niezbędnych do wybudowania pieca. Na podstawie istniejącej dokumentacji wykonano rysunek pieca po pełnej odbudowie (Rys. 2). dolna część okno rusztu czopuch okno wyrobowe okno załadowcze Rys. 2. Widok pieca pudlingowego z fragmentem komina. 80 Dla opisu budowy pieca wykonano jego przekrój wzdłużny (Rys. 3). sklepienie łukowe czopuch ściany ruszt trzon Rys. 3. Przekrój wzdłużny pieca pudlingowego Na rysunku 3 przedstawiono przekrój wzdłużny pieca, na podstawie którego wykonano prace inwentaryzacyjne mające na celu oszacowanie zapotrzebowania na materiały do pełnej rekonstrukcji pieca. Piec pudlingowy zbudowany jest z szamotowego (szamot A) wyłożenia ogniotrwałego wewnątrz oraz z izolacji termicznej (czerwonej cegły) na zewnątrz. Trzon pieca leży na czterech podporach żeliwnych i wyłożony jest mieszaniną żużla, piasku i szamotu. Strop zbudowany jest z klinów stojących 1S4, 1S10 i 1S16 wykonanych z szamotu typu A tworzących sklepienie łukowe, które zmniejsza swój promień w kierunku komina. Piec opalany jest węglem kamiennym, a spaliny ogrzewając piec przepływają przez czopuch wykonany z tego samego materiału, co ściany i opartego na 4 żeliwnych kolumnach i trafiają poprzez komin (szamot B) do atmosfery. Obróbka płynnej surówki następuje poprzez okno wyrobowe przy pomocy drewnianych drągów. Ustalono, że po uwzględnieniu materiałów, będących w posiadaniu Muzeum do pełnej rekonstrukcji pieca, niezbędne są materiały zamieszczone w tabeli 1. Tabela 1. Zapotrzebowanie na materiały Materiał Vcałk [m3] mcałk [kg] Żl 150 St3 LI400 LI500 Szamot A Cegła czerwona 0,9787 6851,24 0,4452 3472,72 0,1555 1213,06 0,0180 140,40 7,1643 13612,20 16,3000 Na podstawie wykonanych zestawień ustalono, że dla wybudowania pieca niezbędne są nakłady materiałowe w wysokości około 100 tys. zł, nie licząc kosztów przygotowania modeli i form do wykonania odlewów. Należy przyjąć, że z kosztami modeli i form nakłady materiałowe należy szacować na 200 do 300 tys złotych. Dalsze, ponad 50 tys. zł, jest niezbędne na organizację Obozów Naukowych. Należy założyć, że zdobycie funduszy w tej kwocie jest niemożliwe. 81 4.Dokończenie rekonstrukcji pieca. Zakończenie rekonstrukcji pieca odtworzy piec pudlarski dawniej w tym Zakładzie działający co będzie miało znaczenie dla przywrócenia go do stanu przed wojennymi zniszczeniami. Piec ten będzie usytuowany na oryginalnym fundamencie. Równocześnie, a może przede wszystkim, zrekonstruowany piec (jedyny tego rodzaju w Środkowej Europie, a może i w świecie) stworzy możliwość prowadzenia praktycznych badań nad procesem pudlingowym, co będzie istotnym wkładem do pogłębiania wiedzy w zakresie historii rozwoju techniki metalurgicznej. Autorzy doszli do wniosku, że jedyną możliwością wybudowania pieca jest zastąpienie większości odlewanych elementów- stalowymi, produkowanymi w krajowych hutach żelaza. Dla zrealizowania tego wniosku konieczna była zmiana dokumentacji pieca i ponowne wykonanie rysunków wszystkich elementów. Na tak dokonanym „oszustwie” historii możliwe są oszczędności blisko 200 tys. złotych i odbudowa pieca. Wnioski. Na podstawie wykonanych prac projektowych i obliczeniowych można sprecyzować następujące wnioski: 1. Istnieje niepowtarzalna szansa wybudowania na oryginalnym fundamencie pieca pudlingowego. 2. W wybudowanym piecu możliwe będzie prowadzenie procesu otrzymywania żelaza pudlarskiego. 3. Wybudowany piec, prawdopodobnie będzie jedynym pracującym piecem w świecie. 4. Do wybudowania pieca niezbędne są nakłady w wysokości ponad 300 tys. zł i ich zdobycie w najbliższych latach jest niemożliwe. 5. Zastąpienie większości elementów odlewanych walcowanymi może obniżyć koszty materiałowe do około 100 tys. złotych. 6. Dla tak zmienionej konstrukcji pieca i rzeczowej pomocy polskich hut stali wybudowanie pieca pudlingowego jest możliwe w czasie 2-3 lat. Literatura: 1. M. Radwan, Rudy, kuźnice i huty żelaza w Polsce. WNT Warszawa 1963. Wyd I. 2. H. Łabędzki, Górnictwo w Polsce. Opis kopalnictwa i hutnictwa polskiego pod względem technicznym, historyczno- statystycznym i prawnym. Tom I, Warszawa 1841. Wydano w drukarni Juliana Kaczanowskiego, przy ulicy Miodowej nr 493. Opiekun naukowy Dr hab. inż. Marian Kieloch 82 NOWA GENERACJA PRZEWODÓW JEZDNYCH Z MIEDZI SREBROWEJ PRZEZNACZONYCH DO DUŻYCH PRĘDKOŚCI JAZDY Paweł Kwaśniewski Koło Naukowe Przeróbki Plastycznej i Metaloznawstwa Wydział Metali Nieżelaznych Akademia Górniczo-Hutnicza im St. Staszica Tradycyjne przewody jezdne wykonywane są z miedzi elektrolitycznej w gat. ETP. Z uwagi na ograniczone własności eksploatacyjne (wytrzymałość na rozciąganie, odporność na ścieranie i działanie podwyższonych temperatur) nie nadają się one do sieci trakcyjnych przeznaczonych do szybkich pojazdów szynowych (pow. 250 km/h). Własności takie można uzyskać przez dodanie srebra do miedzi w ilości poniżej 1000 ppm. Potrzeba wdrożenia takich przewodów do polskich sieci trakcyjnych wynika z faktu aneksji Polski do UE i dostosowania międzynarodowego układu połączeń do standardów europejskich. W referacie przedstawiono analizę mechanicznych warunków pracy oraz wymagania jakie stawia przewodom jezdnym górna część sieci trakcyjnej oraz wyniki badań odporności na ścieranie i działanie podwyższonej temperatury dla przewodów tradycyjnych i z miedzi w gat. CuAg0,1. Badania przeprowadzono na oryginalnych specjalnie do tego celu zaprojektowanych stanowiskach badawczych. Opiekun naukowy referatu dr hab. inż. Tadeusz Knych 83 STRUKTURA I WŁAŚCIWOŚCI STALI WCL (X38CRMOV5-1) PO WSTĘPNEJ OBRÓBCE CIEPLNEJ W ZŁOŻU FLUIDALNYM Piotr Komorowski Wydział Inżynierii Procesowej, Materiałowej i Fizyki Stosowanej Politechnika Częstochowska Streszczenie W pracy przedstawiono wyniki badań przeprowadzonych dla stali narzędziowej do pracy na gorąco WCL ( X38CrMoV5-1) po procesie wstępnej obróbki cieplnej w złożu fluidalnym. Celem badań było określenie zmian jakie zachodzą w strukturze i właściwościach materiału po przeprowadzonej obróbce cieplnej w porównaniu do materiału w stanie wyjściowym. Przeprowadzenie obróbki cieplnej oraz określenie zmian w strukturze oraz właściwościach wykazać miało, że istnieje możliwość zmiany morfologii struktury (rozdrobnienie fazy węglikowej, zmiana wielkości byłego ziarna austenitu, co jest szczególnie ważne dla detali o dużych wymiarach. Uzyskanie podłoża o lepszych właściwościach pozwoli w dalszych procesach obróbki cieplno – chemicznej na podniesienie dopuszczalność, odporności na zmęczenie cieplne oraz trwałości eksploatacyjnej. Wstęp Szybki rozwój nauki i co za tym idzie technologii z zakresu metaloznawstwa narzędzi, zmusza inżynierów do opracowywania coraz to nowszych i lepszych materiałów oraz technologii ich wytwarzania. W związku z powyższym, obecne czasy wymagają od konstruktorów ciągłego obniżania kosztów produkcji, co można dostrzec we wszelkiego rodzaju technikach obróbki cieplnej i cieplno – chemicznej. Przykładem tych zmian jest postęp jaki się dokonuje w ciągłym wdrażaniu i udoskonalaniu obróbki cieplnej w złożu fluidalnym. Jak wynika z ostatnich publikacji naukowych, stosowanie tej metody jest uzasadnione pod względem ekonomicznym, a także spełnia ona aspekt ekologiczny. We wszystkich znanych obecnie obróbkach cieplnych i cieplno – chemicznych można zaobserwować wyraźny wzrost w kierunku polepszenia powierzchni tworzyw metalicznych. Przypadek stali narzędziowych do pracy na gorąco, skłania do tworzenia materiałów, a następnie narzędzi wyróżniających się dobrą korelacją własności warstwy wierzchniej i rdzenia. W ogólnym zatem ujęciu, narzędzia powinny cechować się dużą twardością, odpornością na ścieranie oraz wykazywać wysokie własności wytrzymałościowe zwłaszcza w temperaturach pracy. Własności te skupiają w sobie całego procesu wytwarzani metalu, począwszy od jego wytopu po obróbki finalne. Eksploatacja i związane z tym zużycie narzędzi do pracy na gorąco, wynikać może ze złego przygotowania stali pod względem jej struktury i własności. Opierając się o dane literaturowe z dziedziny stali narzędziowych, można wnioskować, że za eksploatację oraz zużywanie się narzędzi odpowiada między innymi obecna w strukturze faza węglikowa. Dlatego priorytetową sprawą przy produkcji narzędzi uzyskanie odpowiedniego podłoża strukturalnego w stali. Zagadnienie techniki rozdrobnienia oraz sferoidyzacji węglików w stali WCL przed dalszymi jej obróbkami jest tematem istotnym, a jednocześnie dość problemowym. Badania stanowią próbę rozwiązania tego problemu, w aspekcie obróbki cieplnej w złożu fluidalnym. 84 WARSTWA WIERZCHNIA WAŁKÓW ROZRZĄDU PO PROCESIE EKSPLOATACJI Piechna Andrzej Koło Naukowe „ METALOZNAWCÓW ” Wydział Inżynierii Procesowej, Materiałowej i Fizyki Stosowanej Instytut Inżynierii Materiałowej Politechnika Częstochowska Streszczenie Celem przedstawionej pracy jest analiza mikrostruktury warstwy wierzchniej elementów wałka rozrządu samochodów osobowych typu: Toyota Lexsus, BMW 320, Ford Escort, Polonez oraz ocena efektów zużycia. Wstęp W nowoczesnym silniku spalinowym występuje duża liczba detali narażonych na zużycie. Jednym z nich jest wałek rozrządu od którego wymagane jest: przenoszenie obciążeń, momentu skręcającego oraz eksploatacji w zmiennych warunkach smarowania jest wałek rozrządu. Obecnie istnieje kilka technologii, z których wykonuje się wałki rozrządu: - technologia odlewania, - technologia odlewania z następnym procesem obróbki cieplnej. Technologia pierwsza wykonane zostały wałki rozrządu od Toyota Lexsusa i BMW 320 a technologią drugą wałki Forda Escorta i Poloneza. Analiza wyników Wałki rozrządu od Toyoty Lexsusa i BMW 320 wykonane zostały z żeliwa zabielanego w krzywce występuje żeliwo białe nadeutektyczne, natomiast w części nie współpracującej żeliwo szare z grafitem płatkowym. Cechą charakterystyczną ujawnionej mikrostruktury w krzywce wałka rozrządu jest różny sposób ułożenia i wielkość igieł cementytu pierwotnego w osnowie ledeburytu przemienionego. Obecność struktury ferrytyczno-perlitycznej z wydzieleniami grafitu płatowego w części nie współpracującej zapewnia możliwość przenoszenia momentów skręcających oraz tłumienia drgań. Wałki rozrządu od Forda Escorta oraz Poloneza został wykonane z żeliwa szarego z wydzieleniami grafitu sferoidalnego. Warstwę wierzchnią wałka poddano procesowi hartowania indukcyjnego z następnym odpuszczaniem. Na całej powierzchni widać strefę zahartowaną składającą się z martenzytu odpuszczonego drobnoziarnistego z wydzieleniami grafitu. Rdzeń jest wykonany z żeliwa szarego o osnowie ferrytyczno-perlitycznej. Różnica w technologii polega na różnym kształcie wydzieleń grafitu: grafit płatkowy (Ford Escort), grafit sferoidalny (Polonez). Podsumowanie Wałki rozrządu BMW 320 i Toyoty Lexsus wykonane zostały z żeliwa zabielanego w procesie technologicznym – odlewanie (krystalizacji pierwotnej). Obecność ledeburytu przemienionego z igłami cementytu pierwotnego zapewnia dobrą odporność na ścieranie i zdolność do zachowania tzw „filmu olejowego ” podczas eksploatacji. 85 Wałek rozrządu Poloneza i Forda Escorta wykonany z żeliwa szarego technologia obróbki cieplnej po procesie odlewania. Wydzielenia grafitu w postaci płatków w warstwie zahartowanej są miejscami propagacji pęknięć i powodują szybsze zużycie krzywki (Ford Escort) Literatura: [1] Rychte T.: „Mechanik kierowca pojazdów samochodowych”. WSiP, W-wa, 1982. [2] Kijewski J.: „Silniki spalinowe”. WSiP, W-wa, 1995. [3] Bomba P.: „Mikrostruktura warstwy wierzchniej elementów mechanizmu rozrządu po procesie eksploatacji, praca dyplomowa, Częstochowa, 2002 Opiekun naukowy: Dr hab. inż. Józef Jasiński 86 ROLA SODU W ZAWORACH SILNIKOWYCH Konieczniak Artur Koło Naukowe „METALOZNAWCÓW” Wydział Inżynierii Procesowej, Materiałowej i Fizyki Stosowanej. Instytut Inżynierii Materiałowej Politechnika Częstochowska Streszczenie Niniejszy artykuł prezentuje zadania stawiane zaworom silnikowym oraz technologie ich wytwarzania. Zwraca uwagę na sposoby zabezpieczania i powłoki ochronne zaworów, ponadto prezentuje sposoby chłodzenia zaworów silnikowych. 1) Wstęp Zawory w silnikach samochodowych są istotnymi elementami układu rozrządu. Ich podstawową funkcją jest zamknięcie przestrzeni roboczej cylindra podczas suwu sprężającego mieszankę paliwowo-powietrzną i podczas spalania. Wyróżniamy dwa podstawowe typy zaworów: dolotowe (ssące) i wylotowe. Zawory wytwarza się ze stali stopowych: stali ferrytyczno-perlitycznej, chromowoniklowej o strukturze austenitycznej oraz chromowo-krzemowej (silchromów). 2) Technologie wytwarzania zaworów Wśród współczesnych metod wytwarzania zaworów można wyróżnić następujące metody: - Metoda wytłaczania przelotowego - jest tania i nie wymaga stosowania specjalnych obrabiarek. - Metoda elektrospęczania – jest stosowana gdy przebieg włókien w zaworze nie jest istotny. - Metoda wyciskania zaworów na gorąco - Stosuje się gdy wymaga się możliwie korzystnego rozkładu włókien w grzybkach zaworów. - Metoda prasowania wypływowego - polega na tym, że materiał wyjściowy jest podawany z zasobnika za pomocą wypychacza do induktora o wysokiej częstotliwości, a następnie zabrany przez mechanizm załadowczy i wprowadzony do pierwszego wykroju matrycy. 3) Powłoki ochronne na powierzchnie zaworów Na zawory nanoszone są różnego rodzaju powłoki ochronne w celu poprawienia własności stali. Spośród rodzajów powłok możemy wyróżnić: powłoki stellitowe, powłoki aluminiowe, powłoki chromowane oraz warstwy azotowane. 4) Sposoby chłodzenia zaworów silnikowych W celu obniżenia maksymalnej temperatury występującej w zaworach wylotowych stosuje się rozmaite sposoby ich dodatkowego chłodzenia. Najbardziej skuteczne jest dodatkowe chłodzenie zaworów wylotowych sodem, częściowo wypełniającym wydrążenia ich trzonków. 87 5) Podsumowanie W dziedzinie konstrukcji zaworów dąży się do: - zmniejszenia średnic zaworów dolotowych, dzięki czemu pozostają w komorze spalania niewielkie resztki spalin. - zwiększania liczby zaworów przypadających na jeden cylinder, która w nowoczesnych silnikach może wynosić nawet pięć zaworów na cylinder. Literatura: [1] P. Adamiec, J. Dziubiński, Wybrane zagadnienia materiałów konstrukcyjnych technologii wytwarzania pojazdów, Gliwice 1998, [2] A. Ubysz, Współczesne silniki samochodowe, cz. I, Gliwice 1998, [3] MERCEDES-BENZ: 208D, 210D, 308D, 310D, 408D, 410D, Sprinter 212 D, Warszawa, 1996. [4] K. Derczyński, Analiza mikrostruktury warstwy wierzchniej zaworów silników spalinowych po eksploatacji. Praca Dyplomowa numer Z. 118’, Politechnika Częstochowska 2003r. Opiekun naukowy: Dr hab. inż. Józef Jasiński 88